Il s’agit d’une étude rétrospective de type pré-post menée au Medical University of South Carolina Hollings Cancer Center. Cette étude décrit l’effet de l’implantation d’un logiciel de prescription électronique de la chimiothérapie permettant la documentation des interventions sur le travail des pharmaciens en oncologie, en ce qui a trait à la révision des ordonnances de chimiothérapie orale en externe. Dans cette organisation, avant l’implantation de ce logiciel, les ordonnances de chimiothérapie orale n’étaient pas systématiquement révisées par un pharmacien avant la dispensation en pharmacie externe, à l’exception de deux cliniques ciblées et d’une révision ad hoc selon la situation. Après l’implantation du logiciel, la fonctionnalité d’identification des prescriptions de ce type a permis la mise en place d’un processus de révision systématique de toutes ces ordonnances, à l’exception de celles formulées à l’extérieur d’un plan de traitement standardisé. Le logiciel permet également la documentation des interventions pharmaceutiques liées à la révision de ces ordonnances.
Les patients ayant reçu au moins une ordonnance de chimiothérapie orale en externe ont été inclus dans cette étude si l’ordonnance avait été émise durant une période pré-implantation (octobre-décembre 2013) ou une période post-implantation (octobre-décembre 2014). Les ordonnances révisées et les interventions pharmaceutiques reliées ont été collectées; durant la période pré, celles-ci étaient documentées à l’extérieur du dossier électronique dans une feuille de calcul. Le temps requis pour les interventions a aussi été collecté, et les interventions ont été classées selon leur importance clinique à l’aide d’une classification reconnue établie dans d’autres études.
240 patients ayant reçu 450 ordonnances ont été inclus, dont 134 ordonnances révisées dans la période pré et 316 dans la période post. 89 interventions ont été réalisées dans la période pré, comparativement à 681 durant la période post. Les types d’interventions les plus fréquents étaient la coordination des calendriers de traitement, la coordination des soins et l’assistance avec les plans de traitement. 41 erreurs de prescription ont été interceptées durant la période pré, comparativement à 250 durant la période post.
Bien sûr, ceci était lié à une augmentation du temps passé à faire ces activités. Durant la période pré, 9.3 heures par mois étaient consacrées à la révision des ordonnances et 14.7 heures aux interventions, comparativement à 34 heures de révision et 79 heures d’intervention durant la période post.
Je trouve cette étude pertinente car elle est un bon exemple d’un effet positif d’une meilleure disponibilité de l’information sur le travail des pharmaciens. Dans le centre étudié, les ordonnances n’étaient pas systématiquement révisées car il n’y avait pas de système en place pour rendre ces ordonnances disponibles aux pharmaciens; tandis qu’après l’arrivée du logiciel, un flot de travail permettant cela a pu être mis en place. De même, la documentation des interventions de manière électronique, associée en temps réel à celles-ci, est un bénéfice pour illustrer l’effet bénéfique des pharmaciens sur ce processus.
Néanmoins, l’augmentation du temps associé à ces activités doit inévitablement s’accompagner d’une diminution du temps accordé à une autre activité si aucune ressource n’est ajoutée. En ce sens, il est utile de se demander si l’activité ainsi développée est la meilleure utilisation possible du temps de ces pharmaciens, mais on n’en parle pas dans cet article.
Ce sondage avait pour objectif de décrire l’état d’implantation d’une liste de 15 interactions médicamenteuses jugées prioritaires par un organisme américain, dans l’optique de mieux caractériser la variabilité entre les différents centres, de la méthode d’évaluation et d’alertes pour ces interactions. L’article est disponible gratuitement en texte complet sur le site de l’éditeur.
La liste a été obtenu d’un consensus d’experts avec l’aval du Office of the National Coordinator for health information Technology américain. L’article décrivant la méthode d’élaboration et la liste elle-même sont disponibles en ligne.
21 centres américains représentant un échantillon de convenance ont été sélectionnés pour participer au sondage, et de même 2 logiciels gratuits ont été évalués par les chercheurs de la même manière. Des centres contactés, 19 ont répondu et 17 ont complété le sondage.
L’évaluation consistait en la création dans le logiciel de prescription électronique d’un patient test, suivi de prescriptions fictives des médicaments impliqués dans les 15 interactions évaluées. Durant cette phase, les chercheurs supervisaient le test par partage d’écran. Les résultats sont présentés en agrégé pour tous les centres, et une sous catégorie des 6 systèmes Epic représentés dans l’étude a été isolée.
Dans 17 des 19 systèmes évalués (89%), la capacité de présenter diverses sévérités d’interactions existait. Cependant, dans 4 systèmes (21%), seules les interactions les plus sévères apparaissaient en alerte, alors que toutes les interactions peu importe leur sévérité apparaissaient en alerte dans 8 (42%) systèmes.
Aucun système n’a affiché d’alerte pour les 15 interactions identifiées. Le meilleur résultat est 14/15 (93%), par un seul système. En moyenne, 58% des interactions ont généré une alerte interruptive (requérant confirmation de l’utilisateur pour continuer), et 12% ont produit uniquement des alertes passives. Un seul système a présenté des alertes avec interruption définitive (hard stop), empêchant l’utilisateur de continuer la prescription. Dans ce système, 7 des 15 interactions étaient configurés en interruption définitive.
En ce qui a trait aux interactions spécifiques, le comportement était très variable. L’interaction entre les ISRS et les IMAO était détectée dans pratiquement tous les système, alors que l’interaction entre le ramelteon et les inhibiteurs du CYP1A2 n’était détectée dans aucun système.
L’étude est intéressante car illustre bien la grande variabilité dans la gestion des interactions médicamenteuses, même dans un écosystème mature avec des produits commerciaux à grand déploiement. À noter qu’une liste d’interactions jugées prioritaires en pédiatrie existe; il serait intéressant qu’une étude similaire soit menée dans le contexte de la pédiatrie.
L’objectif de cette étude était d’évaluer la performance des logiciels de prescription électronique avec aide à la décision en utilisation dans 41 institutions américaines, certaines exclusivement pédiatriques et d’autres desservant une clientèle mixte pédiatrique et adulte. L’analyse a été effectuée avec la version pédiatrique du Leapfrog CPOE evaluation tool, un outil standardisé reconnu et couramment utilisé aux États-Unis. L’étude a eu lieu de février 2008 à décembre 2010, et comportait pour certaines institutions plusieurs évaluations dans le temps, ce qui a permis aux auteurs de décrire l’évolution temporelle des scores obtenus.
La méthode d’évaluation est bien décrite dans l’article. En résumé, il s’agit de créer des patients fictifs dans le système en place, d’entrer les ordonnances fictives demandées par le test et de noter ce que le système détecte comme erreurs. De surcroît, des ordonnances sans erreurs doivent être elles aussi testées et une limite de temps de 6 heures est imposée, afin de détecter les alertes inutiles, et de prévenir la tentation que certains pourraient avoir d’ajuster leur système d’aide à la décision aux ordonnances demandées par le test.
96 résultats de tests ont été obtenus, pour une moyenne de 2.2 par institution. 6 ont été exclus en raison de violation de la limite de temps ou de détection de résultats louches à partir des ordonnances sensées ne pas générer d’alertes. 90 résultats ont donc été exclus dans l’analyse. 73,2% des hôpitaux étaient des affiliés à des institutions académiques, et en moyenne, les hôpitaux participants étaient un peu plus grands que l’hôpital pédiatrique américain moyen.
Le score moyen pour l’ensemble des composantes testées était de 62%, avec un intervalle de confiance 95% de 57,9 à 66,1%. Les composantes testées étaient divisées en fonctionnalités de base (interactions, allergies, duplications, doses uniques, voies d’administration) et avancées (doses ou indications par diagnostic et par résultats de laboratoire, coûts, monitoring, doses cumulatives et alertes inutiles). Pour les composantes de base, le score moyen était de 71,6% et il était de 50,4% pour les fonctions avancées. Les fonctions avec les scores les plus élevés étaient la détection d’allergies (99,2%), de doses uniques inappropriées (81,1%), de doses cumulatives inappropriées (70,2%) et les voies d’administrations inappropriées (70,8%). Les pires performances étaient pour la détection d’interactions et de duplications. La performance n’était pas liée au type d’hôpital, au logiciel lui-même, au temps depuis le déploiement et à l’affiliation académique.
En moyenne, les systèmes de prescription électronique étaient en place depuis 4.1 ans. Les auteurs ont trouvé que les scores de performance avaient tendance à s’améliorer, d’en moyenne 4% par année après le test initial.
Je trouve cette étude pertinente en raison des données qu’elle offre sur la performance des logiciels de prescription électronique en pédiatrie. Dans notre contexte, on pourrait utiliser cet outil ou un autre similaire pour tester la performance des systèmes de prescription électronique qui seront inévitablement déployés au Québec dans les prochaines années. De même, un tel test serait applicable aux logiciels de pharmacie, qui offrent des fonctionnalités similaires. Ces résultats pourraient aider à développer un guide de paramétrage pour ces applications.
À noter: la première phrase de cet article est: « The Institute of Medicine’s 1999 report To Err Is Human… »