Deux études multicentriques sur les logiciels d’assistance aux préparations stérile

J’ai parlé à plusieurs reprises d’études évaluant divers logiciels d’assistance aux préparations stériles, combinant essentiellement entre une et trois technologies parmi la lecture de code-barres, la prise de photos et la pesée (gravimétrie).

Deux études sur le sujet sont parues dans l’AJHP de juin. Ces deux études me semblent un peu étranges car elles ont seulement deux auteurs en commun (sur 10 pour la première et sur 4 pour la deuxième), cependant elles sont à toutes fins pratiques identiques sauf pour les hôpitaux ciblés, même le titre est presque identique et certains paragraphes sont copiés mot pour mot. On constate que les deux études ont été financées par le manufacturier multinational d’un logiciel d’assistance aux préparations stériles et que les deux études ciblent spécifiquement ce système sans le comparer à d’autres. La première inclut des hôpitaux de grande taille et la deuxième des hôpitaux plus petits (« communautaires »). De plus, la plus grosse étude comporte un paragraphe dans son introduction qui décrit le système, ce qui n’est pas mal en soi, mais en utilisant une formulation que je trouve plus appropriée à une brochure publicitaire qu’à une publication scientifique, en parlant des parts de marché du système, du nombre de doses préparées au total dans tous les hôpitaux qui ont ce produit et du nombre d’erreurs supposément évitées depuis le lancement du logiciel. Les références données pour ces chiffres sont les données internes du manufacturier et un magazine non scientifique sur les produits de pharmacie. Mon opinion est que ce genre d’affirmations basée sur des références molles n’a pas sa place dans une étude sensée être scientifique. Ceci étant dit, concentrons-nous sur la partie scientifique de ces études.

Il s’agit d’études comparatives entre des centres ayant implanté un logiciel d’assistance aux préparations stériles combinant la lecture de code-barres et la prise de photos, par rapport à des centres travaillant sans logiciel. La première étude concernait des centres de plus de 200 lits et la deuxième des centres de moins de 200 lits. Dans la première étude, la méthode de sélection des centres n’est pas décrite du tout. Dans la deuxième, on mentionne une sollicitation à travers une liste de diffusion nationale, cependant le nombre de répondants et les critères de sélection des centres participants ne sont pas décrits.

Les objectifs étaient très similaires dans les deux études. Dans les deux cas, on voulait comparer les taux et les types d’erreurs interceptées (objectif primaire) ainsi que le temps de préparation des médicaments ciblés par le système et les coûts. Les données pour les hôpitaux avec le logiciel étaient extraites à l’aide de rapports générés par le système. Pour les hôpitaux travaillant sans logiciel, un formulaire a été mis en place pour collecter les erreurs interceptées et les temps de préparation étaient mesurés au chronomètre. Les types d’erreur collectés n’étaient pas les mêmes entre les deux groupes; les erreurs collectées à partir du logiciel étaient plus détaillées, c’est-à-dire que chaque type d’erreur dans le système manuel était subdivisé en plusieurs types dans le logiciel. Le type d’erreur « produit expiré » était collecté à partir du logiciel mais n’existait pas dans la collecte manuelle. Pourtant, ce type d’erreur peut survenir dans un hôpital travaillant sans logiciel (j’en intercepte moi-même de temps en temps), je ne comprends pas cette omission. Le calcul de coûts était fait en multipliant simplement le temps de préparation par des salaires horaires hypothétiques pour les techniciens et pharmaciens. Le coût du système n’était pas compté. Il s’agit selon moi de données hypothétiques, donc je n’en parlerai pas davantage. Toutes les données ont été collectés sur une période de 3 mois sauf les données de temps qui ont été collectés sur 3 à 5 jours dans le groupe sans logiciel.

Résultats de l’étude pour les centres de plus de 200 lits

8 sites ont été inclus, 4 avec logiciel et 4 sans logiciel. Un centre dans le groupe sans logiciel était clairement plus gros que les autres avec plus de 115 000 doses dans ce seul centre durant l’étude. 96 865 doses ont été préparées dans le groupe avec logiciel et 244 273 dans le groupe sans logiciel. 2679 erreurs ont été détectées dans le groupe avec logiciel comparativement à 739 dans le groupe sans logiciel. Les taux d’erreurs rapportés dans l’article ont été calculés en obtenant le taux d’erreur par centre et en faisant une moyenne (non pondérée) entre les centres. Les résultats rapportés sont donc de 3,13% d’erreurs dans les centres avec logiciel contre 0,22% dans les centres sans logiciel. On rapporte une différence statistiquement significative entre ces moyennes. J’ai refait un test exact de Fisher sur la table de contingence avec les chiffres bruts et la différence demeure statistiquement significative.

Les erreurs les plus fréquemment rapportées étaient la sélection du mauvais médicament dans le groupe avec logiciel à 63,3% alors que le taux de cette erreur était de 17% dans les centres sans logiciel, où l’erreur la plus fréquente était un problème d’étiquetage à 22,7%. Les auteurs ne discutent pas de cette énorme différence de distribution. La détection accrue semble être l’explication intuitive, mais on peut imaginer que si autant d’erreurs de sélection de médicament avaient lieu dans les sites sans logiciel et n’étaient pas détectées, on verrait des conséquences cliniques extrêmement importantes, il semble donc y avoir ici un autre facteur en jeu. Malheureusement, les données présentées n’informent pas davantage sur ce point.

En ce qui a trait au temps de préparation, les données collectées dans le groupe avec logiciel incluaient le temps d’attente pour la vérification du produit alors que ce temps était exclus dans le groupe sans logiciel, les auteurs ont donc « normalisé » le temps de vérification des produits dans le groupe avec logiciel. Le temps total dans le groupe avec logiciel était de 7,01 minutes avec la normalisation et 11,59 minutes sans la normalisation. Le temps total dans le groupe sans logiciel était de 12,77 minutes. Encore une fois, ce sont des moyennes non pondérées entre les centres et non une vraie moyenne sur l’ensemble des données.

Résultats de l’étude pour les centres de moins de 200 lits

4 centres ont participé, 2 par groupe. 4944 doses ont été préparées dans le groupe avec logiciel et 2269 dans le groupe sans logiciel. 187 erreurs ont été détectées dans le groupe avec logiciel et seulement 3 dans le groupe sans logiciel, ce qui me semble quand même faible pour une période de collecte de 3 mois. Bien évidemment, il y a une différence statistiquement significative entre les groupes.

On observe la même différence de distribution sur les types d’erreurs alors que les erreurs de sélection de produit représentent plus de 70% des erreurs dans le groupe avec logiciel alors qu’il s’agit de 33% des erreurs dans le groupe sans logiciel.

La collecte de données pour le temps de préparation semble avoir été problématique dans le groupe sans logiciel et donc je crois qu’on ne peut pas trop se fier à ces données.

Au total

Ces deux études me semblent difficiles à interpréter avec confiance. L’énorme duplication entre les deux publications m’apparaît étrange. En ce qui a trait à la détection d’erreur, la différence importante dans la distribution des types d’erreurs entre les groupes, dans les deux études, m’amène à penser que l’on ne peut pas comparer simplement les taux d’erreurs entre ces groupes. Il semble y avoir un facteur en jeu qui n’est pas capturé dans les données présentées puisque je n’arrive pas à croire qu’autant d’erreurs de sélection de médicament puissent avoir été non-détectées dans les centres sans logiciel. En ce qui a trait au temps de préparation, la méthode de calcul différente entre les groupes, ayant mené à la nécessité de « normaliser » une partie du temps calculé dans le groupe avec logiciel, me semble injustifiable. La méthode de collecte dans les centres sans logiciel aurait dû être prévue pour être directement comparable à la durée capturée par le logiciel. Je ne crois donc pas que l’on puisse se fier à ces temps.

En ce qui a trait à l’applicabilité de ces données, j’aurais aimé avoir un peu plus de détails sur la méthode de travail dans les centres inclus dans l’étude. Je crois comprendre que tous les centres de la première étude utilisaient une préparation dose par dose en « temps réel », alors qu’un hôpital dans la petite étude préparait ses doses la veille, mais les données de ce centre ont été exclues. Je ne crois donc pas que l’on puisse appliquer directement les conclusions de ces études au Québec, où la préparation est généralement faite en lots ou en service quotidien avec une préparation la veille de l’administration.

Effet d’une alerte sur l’utilisation de médicaments inappropriés en gériatrie

En 2016, je vous parlais de l’initiative de cliniques médicales de la région d’Edmonton qui avaient inclus dans leur logiciel de prescription électronique, des alertes relatives aux critères de Beers pour les patients âgés. Je mentionnais que je trouvais que les alertes étaient bien faites et qu’elles incluaient des recommandations de conduite clinique, ce qui fait généralement défaut.

Le même groupe nous revient avec une nouvelle étude observationnelle rétrospective sur ces alertes, publiée en mai de cette année et disponible gratuitement en texte complet sur PubMed Central. L’objectif de l’étude était de déterminer la fréquence d’interaction des cliniciens avec les alertes liées aux critères de Beers, ainsi que de déterminer la fréquence de déprescription de médicaments potentiellement inappropriés associée à ces alertes.

L’étude a eu lieu dans deux cliniques médicales situées en Alberta, la première spécialisée en gériatrie et la seconde offrant des soins de première ligne. 18 médecins ont participé à l’étude. Toutes les alertes générées durant les visites de patients de 65 ans ou plus dans ces deux cliniques, et par l’un des médecins participant à l’étude, entre le 1er juillet 2015 et le 31 décembre 2017, ont été incluses.

Les mesures de performance des alertes étaient calculées comme le nombre d’interactions de cliniciens avec l’alerte (le nombre de cas où l’alerte n’est pas ignorée) par rapport au nombre d’affichages de l’alerte, et l’inverse de cette mesure était aussi rapportée comme le « number needed to remind » (NNR), soit le nombre d’affichages de l’alerte avant qu’une réponse d’un clinicien n’ait lieu. Cette mesure été décrite en 2014. De la même manière, les auteurs rapportes la performance de l’alerte par rapport au nombre de cessations du médicament en cause et son inverse, le « number needed to deprescribe » (NND).

3221 patients âgés en moyenne de 78 ans ont eu 20 947 visites incluses dans l’étude. 8222 alertes ont été générées. dans 7429 visites. La performance de l’alerte était de 17,3% pour l’interaction d’un clinicien, soit un NNR de 5,8. Cependant, cette mesure était de 7,4 dans la clinique de première ligne et 2,7 dans la clinique de gériatrie, indiquant une plus grande efficacité de l’alerte en gériatrie, une différence statistiquement significative. Les auteurs spéculent sur les raisons de cette différence dans la discussion. La performance pour la déprescription était de 1,2% avec un NND de 82, sans différence statistiquement significative entre les deux cliniques.

Selon moi, la contribution principale de cet article est de démontrer que même si des alertes sont bien conçues, et incluent des recommandations de conduite clinique, cela ne signifie pas qu’elles auront un grand impact clinique. De plus, il est bien connu que l’efficacité d’une alerte ne peut pas être évaluée seule, il faut prendre en compte l’ensemble des alertes affichées au clinicien dans le contexte de surabondance d’alertes menant à une désensibilisation (alert fatigue) même aux alertes importantes. Pour cette raison, je crois que cet article renforce la nécessité d’un monitorage actif des alertes générées par un système d’aide à la décision par une équipe de cliniciens, comme je le mentionnais en mai 2017. Il ne faut pas non plus négliger les principes de conception d’alertes pour en maximiser l’efficacité.

Compétences en informatique clinique pour les étudiants en pharmacie

Les programmes de formation en pharmacie contiennent certains éléments d’informatique clinique. Il existe des curriculums de formation créés par plusieurs associations qui peuvent être utilisés par les facultés de pharmacie pour intégrer l’informatique clinique à leurs cours. J’ai déjà parlé de Partners in E, un programme américain, ainsi que d’un programme canadien similaire. Mon dernier accès à la documentation de Partners in E remonte à l’an dernier, et à ce moment, la dernière mise à jour datait de 2016. Depuis, l’accès aux modules ne semble plus fonctionner, je ne sais pas ce qui se passe. Ce programme est-il encore maintenu ? Du côté canadien, le programme a déménagé à l’adresse http://elearnhcp.ca et s’est développé, même si ça demeure un cours d’introduction. L’accès est maintenant ouvert à tous sur simple inscription en ligne.

Un article paru en mars dans le American Journal of Pharmaceutical Education, et disponible en texte complet sur PubMed Central, discute du contenu des formations en informatique clinique destinées aux étudiants en pharmacie. Il s’agit d’une démarche menée par l‘American Association of Colleges of Pharmacy, qui avait pour objectif de réviser la liste de compétences à inclure dans les programmes de premier cycle en pharmacie.

Un groupe de l’organisation a établi une liste initiale de compétences sur la base d’une revue de littérature et de leur expérience personnelle. Ensuite, deux rondes de focus groups d’une durée d’une heure ont été menées avec des participants recrutés parmi l’ensemble des membres de l’AACP. La liste de compétences a été ajustée suite à ces discussions.

8 personnes ont participé aux focus groups. Ça me semble peu, il aurait été intéressant d’avoir une idée de combien de personnes étaient éligibles, et combien ont été invitées. Les commentaires des participants étaient que la liste de compétences était trop grande et contenait trop d’éléments rudimentaires ou non spécifiques à la pharmacie. Les participants ont discuté de la manière d’intégrer l’informatique clinique dans la formation universitaire, par exemple dans un cours spécifique ou à travers plusieurs cours.

Les compétences que les participants ont identifiées comme prioritaires étaient:

  • Les standards d’interopérabilité
  • L’informatique biomédicale (je ne suis moi-même pas certain de ce que c’est…)
  • Les technologies émergentes
  • Les enjeux légaux et réglementaires
  • Les concepts de sécurité de la prescription électronique

Les auteurs présentent les compétences qu’ils ont identifiées sous la forme de schémas et tableaux. Je dois dire que je suis d’accord avec le commentaire que les compétences ciblées sont très éparpillées et certaines sont très génériques et d’autres spécifiques mais non reliées à la pharmacie, comme la gestion de courriels, les protocoles de communication de l’internet en général, les mots de passe… Le contenu le plus intéressant de l’article est un tableau détaillé des compétences spécifiques à la pharmacie. Le lien est difficile à trouver dans l’article donc je le donne ici:
https://files.acrobat.com/a/preview/57009581-eccf-4868-8526-def02eff200b . C’est un très gros tableau qui liste une multitude de compétences qui ne sont pas toutes d’utilité égale, mais je trouve quand même utile pour une personne qui veut travailler en informatique de pharmacie de lire l’ensemble du tableau et de s’assurer d’au moins connaître chacun des points listés et de pouvoir en discuter.