Revue systématique de l’effet de la prescription électronique sur les erreurs médicamenteuses

Je vous parlais au début 2019 d’une revue systématique sur les effets de la prescription électronique avec aide à la décision. Cette revue avait inclus des articles allant jusqu’à 2016. Une nouvelle revue systématique avec méta-analyse sur le même sujet a été publiée au mois d’août.

Les auteurs de cette nouvelle revue ont révisé la littérature de 2007 à 2017 (inclusivement) et ont inclus les études randomisées ou prospectives chez les patients hospitalisés, à l’urgence ou en soins de longue durée. Les études incluses devaient avoir comme intervention une « stratégie de prescription électronique », définie comme de l’aide à la décision seule ou de la prescription électronique avec ou sans aide à la décision, comparée à un contrôle sans intervention électronique. Je trouve que cette définition est très large, l’aide à la décision seule (« standalone ») est une chose très différente de la prescription électronique (« computerized provider order entry ») intégrée à un dossier électronique. Les études rétrospectives, comparant deux modalités électroniques, avec plusieurs interventions à la fois, ou ciblant les patients externes, ont été exclues. Les issues évaluées étaient les erreurs médicamenteuses et les événements indésirables touchant le patient (« patient harm »).

Une stratégie de recherche systématique, incluant la sélection des articles et l’extraction de leur contenu de façon indépendante par deux chercheurs, a été menée. Les recommandations GRADE ont été suivies pour coter les articles. En fonction de critères prédéterminés, certains articles ont été inclus dans une méta-analyse pour des issues choisies, avec évaluation de l’hétérogénéité et du biais de publication.

2832 études ont été retrouvées, desquelles 38 ont été incluses après tout le processus de sélection, provenant de 12 pays. Le tableau 1 de l’étude décrit les études incluses. À la lecture de ce tableau, on constate au premier coup d’œil que les articles inclus sont extrêmement disparates. Parmi 11 études randomisées, 7 avaient comme sujet le contrôle automatisé de la glycémie avec une perfusion d’insuline aux soins intensifs ou en post-chirurgie, une ciblait le contrôle glycémique chez les diabétiques de type 2, une était à propos du dosage de mycophénolate après une transplantation rénale, une visait le choix d’antibiotiques empiriques en sepsis et une était à propos de la réhydratation chez les enfants avec vomissements ou diarrhée. Aucune étude avec un devis randomisé n’était donc réellement à propos de l’effet de la prescription électronique comme tel, il s’agissait toutes d’études portant un outil d’aide à la décision électronique dans un contexte clinique très précis. Les 11 études randomisées ont rapporté des données sur les événements indésirables touchant le patient et aucune n’a rapporté de données sur les erreurs de médicaments.

De même, parmi les 27 études non randomisées, seules 6 études chez l’adulte et 4 en pédiatrie portaient réellement sur l’effet d’un système de prescription électronique. Les autres portaient sur des outils d’aide à la décision dans le choix d’antibiotiques (8), le contrôle de la douleur (2), la détection d’interactions médicamenteuses (1), l’ajustement en insuffisance rénale (1), les nausées et vomissements post-opératoires (2), le bilan comparatif des médicaments (1), le traitement de la pneumonie (1) et la sédation (1). 18 de ces études ont rapporté des données sur les événements indésirables et 13 des données sur les erreurs médicamenteuses.

Au total, 10 de 13 études ont rapporté une diminution des erreurs médicamenteuses. La méta-analyse de 11 de ces études a démontré une réduction du risque d’erreur avec un risque relatif de 0.24 (intervalle de confiance 95% 0.13-0.46) avec une grande hétérogénéité et un possible biais de publication. L’effet était plus prononcé dans les études récentes.

En ce qui a trait aux événements indésirables, les événements rapportés étaient la mortalité, la durée de séjour, l’hypoglycémie, l’échec de traitement, l’hospitalisation et la réadmission, le délai de traitement, le contrôle de la douleur, les nausées et vomissements post-opératoires et les infections. On voit donc qu’il s’agit d’issues précises tirées des contextes cliniques des études incluses et qu’il ne s’agit pas d’issues évaluées à travers un grand nombre d’études. Ceci compromet la capacité de tirer des conclusions généralisables à la prescription électronique ou à l’aide à la décision dans son ensemble à partir de ces données. Les auteurs ont quand même réalisé une méta-analyse sur les différentes catégories d’événements indésirables mais rien de particulier n’en n’est ressorti hormis une diminution des « adverse drug events » avec un risque relatif à 0,52 (intervalle de confiance 95% 0,40-0,68), mais sur la base de seulement deux études. La définition de précise de cette issue n’est pas bien décrite, les auteurs semblent se baser sur la catégorisation des études incluses telle quelle, laquelle n’est pas expliquée.

Je crois que cette étude, malgré une méthode très solide et une intention louable, souffre d’avoir mal défini le type d’intervention qu’elle souhaitait évaluer. On a l’impression que les auteurs souhaitaient examiner d’un seul coup l’effet de n’importe quelle intervention électronique touchant à la prescription de médicaments ou à l’aide à la décision. Malheureusement, comme les auteurs le mentionnent dans leur discussion, les publications sont hétérogènes. Beaucoup d’études se focalisent sur un contexte clinique précis avec une intervention spécifique à ce contexte, et ceci ne produit pas de données pouvant être mises en commun avec d’autres interventions ou d’autres contextes.

Dans le contexte de l’aide à la décision, je suis de l’opinion que « l’électronique » est un support pour exposer un clinicien à une intervention (par exemple une alerte, une recommandation, une liste de choix filtrée, etc.) et qu’on ne peut pas évaluer l’effet de n’importe quelle intervention amenée via ce support comme un tout, en tout cas pas pour une variété de situations cliniques en même temps. J’ai déjà parlé abondamment sur ce blogue de l’importance de bien paramétrer les systèmes d’aide à la décision et en particulier les alertes, et je crois que la recette gagnante demeure d’afficher la bonne information, à la bonne personne, au bon moment et par le bon support.

En ce qui a trait à la prescription électronique, je pense qu’il est assez clair que cette technologie permet de réduire certains types d’erreurs, et, comme d’autres revues sur le sujet ont montré, que d’autres types d’erreurs peuvent survenir en fonction des caractéristiques du système mis en place.

L’article présenté ajoute à la masse de données qui suggère un effet bénéfique des technologies d’aide à la décision et de prescription électronique sur les erreurs médicamenteuses, néanmoins il est difficile d’attribuer l’effet observé à l’un ou l’autre considérant l’hétérogénéité des études incluses et la définition trop large de l’intervention étudiée.

Deux études multicentriques sur les logiciels d’assistance aux préparations stérile

J’ai parlé à plusieurs reprises d’études évaluant divers logiciels d’assistance aux préparations stériles, combinant essentiellement entre une et trois technologies parmi la lecture de code-barres, la prise de photos et la pesée (gravimétrie).

Deux études sur le sujet sont parues dans l’AJHP de juin. Ces deux études me semblent un peu étranges car elles ont seulement deux auteurs en commun (sur 10 pour la première et sur 4 pour la deuxième), cependant elles sont à toutes fins pratiques identiques sauf pour les hôpitaux ciblés, même le titre est presque identique et certains paragraphes sont copiés mot pour mot. On constate que les deux études ont été financées par le manufacturier multinational d’un logiciel d’assistance aux préparations stériles et que les deux études ciblent spécifiquement ce système sans le comparer à d’autres. La première inclut des hôpitaux de grande taille et la deuxième des hôpitaux plus petits (« communautaires »). De plus, la plus grosse étude comporte un paragraphe dans son introduction qui décrit le système, ce qui n’est pas mal en soi, mais en utilisant une formulation que je trouve plus appropriée à une brochure publicitaire qu’à une publication scientifique, en parlant des parts de marché du système, du nombre de doses préparées au total dans tous les hôpitaux qui ont ce produit et du nombre d’erreurs supposément évitées depuis le lancement du logiciel. Les références données pour ces chiffres sont les données internes du manufacturier et un magazine non scientifique sur les produits de pharmacie. Mon opinion est que ce genre d’affirmations basée sur des références molles n’a pas sa place dans une étude sensée être scientifique. Ceci étant dit, concentrons-nous sur la partie scientifique de ces études.

Il s’agit d’études comparatives entre des centres ayant implanté un logiciel d’assistance aux préparations stériles combinant la lecture de code-barres et la prise de photos, par rapport à des centres travaillant sans logiciel. La première étude concernait des centres de plus de 200 lits et la deuxième des centres de moins de 200 lits. Dans la première étude, la méthode de sélection des centres n’est pas décrite du tout. Dans la deuxième, on mentionne une sollicitation à travers une liste de diffusion nationale, cependant le nombre de répondants et les critères de sélection des centres participants ne sont pas décrits.

Les objectifs étaient très similaires dans les deux études. Dans les deux cas, on voulait comparer les taux et les types d’erreurs interceptées (objectif primaire) ainsi que le temps de préparation des médicaments ciblés par le système et les coûts. Les données pour les hôpitaux avec le logiciel étaient extraites à l’aide de rapports générés par le système. Pour les hôpitaux travaillant sans logiciel, un formulaire a été mis en place pour collecter les erreurs interceptées et les temps de préparation étaient mesurés au chronomètre. Les types d’erreur collectés n’étaient pas les mêmes entre les deux groupes; les erreurs collectées à partir du logiciel étaient plus détaillées, c’est-à-dire que chaque type d’erreur dans le système manuel était subdivisé en plusieurs types dans le logiciel. Le type d’erreur « produit expiré » était collecté à partir du logiciel mais n’existait pas dans la collecte manuelle. Pourtant, ce type d’erreur peut survenir dans un hôpital travaillant sans logiciel (j’en intercepte moi-même de temps en temps), je ne comprends pas cette omission. Le calcul de coûts était fait en multipliant simplement le temps de préparation par des salaires horaires hypothétiques pour les techniciens et pharmaciens. Le coût du système n’était pas compté. Il s’agit selon moi de données hypothétiques, donc je n’en parlerai pas davantage. Toutes les données ont été collectés sur une période de 3 mois sauf les données de temps qui ont été collectés sur 3 à 5 jours dans le groupe sans logiciel.

Résultats de l’étude pour les centres de plus de 200 lits

8 sites ont été inclus, 4 avec logiciel et 4 sans logiciel. Un centre dans le groupe sans logiciel était clairement plus gros que les autres avec plus de 115 000 doses dans ce seul centre durant l’étude. 96 865 doses ont été préparées dans le groupe avec logiciel et 244 273 dans le groupe sans logiciel. 2679 erreurs ont été détectées dans le groupe avec logiciel comparativement à 739 dans le groupe sans logiciel. Les taux d’erreurs rapportés dans l’article ont été calculés en obtenant le taux d’erreur par centre et en faisant une moyenne (non pondérée) entre les centres. Les résultats rapportés sont donc de 3,13% d’erreurs dans les centres avec logiciel contre 0,22% dans les centres sans logiciel. On rapporte une différence statistiquement significative entre ces moyennes. J’ai refait un test exact de Fisher sur la table de contingence avec les chiffres bruts et la différence demeure statistiquement significative.

Les erreurs les plus fréquemment rapportées étaient la sélection du mauvais médicament dans le groupe avec logiciel à 63,3% alors que le taux de cette erreur était de 17% dans les centres sans logiciel, où l’erreur la plus fréquente était un problème d’étiquetage à 22,7%. Les auteurs ne discutent pas de cette énorme différence de distribution. La détection accrue semble être l’explication intuitive, mais on peut imaginer que si autant d’erreurs de sélection de médicament avaient lieu dans les sites sans logiciel et n’étaient pas détectées, on verrait des conséquences cliniques extrêmement importantes, il semble donc y avoir ici un autre facteur en jeu. Malheureusement, les données présentées n’informent pas davantage sur ce point.

En ce qui a trait au temps de préparation, les données collectées dans le groupe avec logiciel incluaient le temps d’attente pour la vérification du produit alors que ce temps était exclus dans le groupe sans logiciel, les auteurs ont donc « normalisé » le temps de vérification des produits dans le groupe avec logiciel. Le temps total dans le groupe avec logiciel était de 7,01 minutes avec la normalisation et 11,59 minutes sans la normalisation. Le temps total dans le groupe sans logiciel était de 12,77 minutes. Encore une fois, ce sont des moyennes non pondérées entre les centres et non une vraie moyenne sur l’ensemble des données.

Résultats de l’étude pour les centres de moins de 200 lits

4 centres ont participé, 2 par groupe. 4944 doses ont été préparées dans le groupe avec logiciel et 2269 dans le groupe sans logiciel. 187 erreurs ont été détectées dans le groupe avec logiciel et seulement 3 dans le groupe sans logiciel, ce qui me semble quand même faible pour une période de collecte de 3 mois. Bien évidemment, il y a une différence statistiquement significative entre les groupes.

On observe la même différence de distribution sur les types d’erreurs alors que les erreurs de sélection de produit représentent plus de 70% des erreurs dans le groupe avec logiciel alors qu’il s’agit de 33% des erreurs dans le groupe sans logiciel.

La collecte de données pour le temps de préparation semble avoir été problématique dans le groupe sans logiciel et donc je crois qu’on ne peut pas trop se fier à ces données.

Au total

Ces deux études me semblent difficiles à interpréter avec confiance. L’énorme duplication entre les deux publications m’apparaît étrange. En ce qui a trait à la détection d’erreur, la différence importante dans la distribution des types d’erreurs entre les groupes, dans les deux études, m’amène à penser que l’on ne peut pas comparer simplement les taux d’erreurs entre ces groupes. Il semble y avoir un facteur en jeu qui n’est pas capturé dans les données présentées puisque je n’arrive pas à croire qu’autant d’erreurs de sélection de médicament puissent avoir été non-détectées dans les centres sans logiciel. En ce qui a trait au temps de préparation, la méthode de calcul différente entre les groupes, ayant mené à la nécessité de « normaliser » une partie du temps calculé dans le groupe avec logiciel, me semble injustifiable. La méthode de collecte dans les centres sans logiciel aurait dû être prévue pour être directement comparable à la durée capturée par le logiciel. Je ne crois donc pas que l’on puisse se fier à ces temps.

En ce qui a trait à l’applicabilité de ces données, j’aurais aimé avoir un peu plus de détails sur la méthode de travail dans les centres inclus dans l’étude. Je crois comprendre que tous les centres de la première étude utilisaient une préparation dose par dose en « temps réel », alors qu’un hôpital dans la petite étude préparait ses doses la veille, mais les données de ce centre ont été exclues. Je ne crois donc pas que l’on puisse appliquer directement les conclusions de ces études au Québec, où la préparation est généralement faite en lots ou en service quotidien avec une préparation la veille de l’administration.

Prototype de prescription électronique incluant l’indication

En juillet 2018, je vous parlais d’un article qui discutait de l’ajout de l’indication dans les prescriptions électroniques. Une des recommandations était de débuter le processus de prescription par la sélection de l’indication, plutôt que de documenter l’indication en texte libre après la rédaction de l’ordonnance. Un avantage de cette façon de faire est que la sélection des médicaments pour l’ordonnance peut être ajustée en fonction de l’indication sélectionnée; théoriquement, les erreurs de sélection de médicament pourraient être diminuées avec cette façon de faire.

Le même groupe revient maintenant avec une étude de simulation portant sur un prototype de logiciel de prescription incorporant cette façon de faire, en comparaison avec deux logiciels commerciaux populaires aux États-Unis.

Le prototype conçu par les auteurs permettait de débuter la prescription par la sélection d’une indication puis de choisir de médicament, ou de choisir le médicament puis l’indication. Les choix de médicaments affichés pour les indications des scénarios testés ont été élaborées à partir de lignes directrices, des indications officielles des produits, et de particularités d’assurance. Les choix de dose et de posologie par défaut reflétaient également l’indication. De plus, les caractéristiques du patient (allergie, insuffisance rénale, poids) se reflétaient dans les choix proposés.

Les participants aux scénarios de test ont été recrutés parmi les cliniciens d’un centre d’affiliation d’un des auteurs. 8 scénarios cliniques ont été élaborés, incluant certaines difficultés au niveau de la prescription comme des allergies, la présence de médicaments look-alike, sound-alike (LASA) dans les choix, etc. Les participants complétaient 4 scénarios avec le prototype et 4 scénarios avec leur logiciel habituel. 17 médecins, 13 résidents et 2 assistants médecins ont complété 256 scénarios. 20 des 32 participants ont utilisé un logiciel commercial et le reste ont utilisé un autre.

Le temps de complétion d’un scénario était plus rapide avec le prototype (premier logiciel 3,37 ± 1,90 minutes, deuxième logiciel 2,93 ± 1,52 minutes, prototype 1,78 ± 1,17 minutes). 28,8% des participants ont utilisé une référence externe pour prescrire avec le prototype comparativement à 58,8% avec les logiciels commerciaux, p < 0,001. Enfin, 5,5% des ordonnances avec le prototype comportaient une erreur contre 29,7% avec les logiciels commerciaux, p < 0,001. Le taux d’erreur liées aux médicaments LASA n’était pas significativement différent entre les groupes.

Je trouve l’étude intéressante car elle démontre l’avantage d’inclure l’indication dans les prescriptions, pas seulement du point de vue du travail du pharmacien, mais bien d’un point de vue du workflow clinique du médecin prescripteur. Elle démontre un avantage de sécurisation du processus, en plus d’être plus rapide. Néanmoins, comme les auteurs le soulignent dans la discussion, ce genre de fonctionnalité demande une banque de données fournissant toute l’information nécessaire en arrière-plan. Les auteurs mentionnent comment les fournisseurs de logiciels de prescription électronique et d’aide à la décision sont peu enclins à offrir des recommandations de traitement de cette manière par crainte de répercussions légales. Si ce genre de contenu ne peut être acquis commercialement, on peut imaginer qu’il soit nécessaire de le développer localement, ce qui représente un volume de travail très important. L’idée est donc bonne, mais sa mise en place risque d’être assez difficile.