Effets d’un système de préparations stériles avec gravimétrie sur la détection d’erreurs et le temps de préparation

Un nouvel article sur les systèmes d’assistance aux préparations stériles avec gravimétrie est paru dans l’AJHP du mois de juillet. Cet article vient du même centre ayant décrit en 2018 l’implantation du même système dans le contexte des produits stériles dangereux. Les auteurs affirment qu’il s’agit ici de la première étude sur un tel système dans le contexte des préparations stériles non dangereuses. Une méthode très similaire à leur autre étude a été utilisée. À noter, le dernier auteur est en conflit d’intérêts avec le manufacturier du système étudié, ce qui teinte négativement cette étude.

L’étude a eu lieu dans un centre académique américain de 803 lits avec des patients adultes et pédiatriques. Le centre a implanté le système avec gravimétrie pour remplacer une technique de préparation sans technologie. Les auteurs parlent d’un système « volumétrique » avant l’implantation. Ceci pourrait être mal interprété en croyant que le système remplacé était un logiciel avec prise de photos ou de vidéos. En réalité, le centre utilisait la méthode « syringe pull-back » (je n’ai pas de bonne traduction française), cette technique qui semble prévalente aux États-Unis (je n’ai jamais entendu parler de ça au Québec !) où le technicien préparateur ramène le piston de la seringue du produit injecté dans un contenant au volume pré-injection pour que le pharmacien vérifie le volume. On comprend donc ici le risque considérable d’erreurs de préparation. Il était donc facile pour cette étude de détecter une amélioration puisque le point de départ était loin d’être optimal.

Les temps de préparation des produits stériles en période pré ont été compilés sur des formulaires papier à l’aide d’un horodateur durant une période de 14 jours. Les données sur les taux d’erreurs durant la période pré ont été compilées lors d’une étude précédente réalisée en 2015, encore une fois avec des formulaires papier. Après l’implantation, les données étaient extraites du logiciel de préparation. Les taux d’erreurs de préparation ont été comparés entre la phase pré et les 90 jours post-implantation, et les temps de préparation ont été comparés entre la période pré et 90 jours et 180 jours post. Les erreurs ont été catégorisées en erreurs de dose et erreurs de produit/diluant. Point positif à noter, les erreurs de produits détectées par le système ont été exclues par les chercheurs si elles étaient sans conséquence, comme par exemple la sélection d’une fiole non ouverte du bon produit pour lequel une fiole ouverte était disponible (étais-ce ce genre de détection qui propulsait à la hausse les taux d’erreurs de sélection de produit dans d’autres études récemment publiées ?) Des opinions par rapport au produit et au flot de travail ont aussi été collectés.

Autre point important à noter, seulement 15 produits ont été inclus dans l’étude. On ignore combien de types de préparations sont faites dans cette unité de production stérile et on ignore quels sont ces 15 produits.

Pour les taux d’erreurs, selon les auteurs, en phase pré, 116 686 préparations ont été incluses, avec 0,12% d’erreurs de produit ou de diluant, et 0,13% d’erreurs de dose. En période post, 5195 préparations ont été incluses avec 6366 erreurs détectées par le logiciel dont 2176 incluses dans l’étude, avec 0,79% d’erreurs de produit et 41,23% d’erreurs de dose. Les différences de taux d’erreurs détectées sont statistiquement significatives.

J’ai de la difficulté à comprendre les chiffres présentés. Les auteurs affirment que seuls 15 produits ont été inclus en pré comme en post, et les deux périodes étaient de 90 jours pour la détection d’erreurs, alors comment est-il possible que 22 fois plus de préparations aient été compilées en pré ? L’article n’apporte pas de clarification sur ce point. Autre élément surprenant, le système a détecté en moyenne plus d’une erreur à chaque préparation ! Dans le contexte de l’aide à la décision, on parle sans cesse de alert fatigue. Si un système de ce type génère en moyenne plus d’une alerte à chaque dose, il me semble qu’il y a un risque de désensibilisation. Aussi, un taux d’erreurs de dose de 41% me semble tout simplement aberrant. Dans la discussion, les auteurs expliquent que certaines alertes catégorisées comme erreurs de dose dans le système n’en sont pas réellement. Ils parlent aussi du problème récurrent, rapporté dans toutes les études sur ce système à ma connaissance, de l’incapacité de bien mesurer les petits volumes par gravimétrie. Enfin, l’analyse statistique n’a tenté aucune évaluation ou correction pour le fait que près de 3 ans séparent les deux phases; d’autres changements dans la pratique ont-ils eu lieu qui pourraient expliquer ces différences ?

En ce qui a trait au temps, on constate une augmentation du temps nécessaire pour préparer le matériel requis et du temps de préparation avec le système, ainsi qu’une diminution du temps de vérification par le pharmacien, mais une augmentation du temps total par préparation. Évidemment, il est difficile d’interpréter ces chiffres puisque la durée d’une préparation dépend grandement de sa complexité et on ignore quelles préparations étaient incluses dans l’étude.

En bref, il s’agit d’une autre étude sur les systèmes d’assistance aux préparations stériles, et d’une autre sur les systèmes avec gravimétrie, mais ces études continuent d’être affectées par des problèmes de méthode et des résultats étranges rendent difficile la généralisation de leurs conclusions. En ce qui a trait à la gravimétrie, on n’offre toujours aucune solution au problème des petits volumes, et il n’y a toujours aucune donnée démontrant l’impact clinique du gain de précision dans les doses sensé être amené par un tel système.

Données sur le suivi et l’enseignement au patient en 2018 dans les hôpitaux américains

Cet article, paru en juillet, poursuit la tradition annuelle du sondage de l’ASHP sur l’état de la pratique de la pharmacie d’établissement de santé aux États-Unis. Cette année, les données sur le suivi et l’enseignement au patient sont présentées. L’article a fait l’objet d’un épidose du podcast AJHP Voices.

Je parlerai uniquement ici des données concernant les technologies, mais gardez en tête que beaucoup plus de données sont disponibles dans l’article complet. La même méthode que d’habitude a été utilisée, avec un échantillonnage parmi l’ensemble des hôpitaux éligibles. Le taux de réponse était de 16,6% avec 811 hôpitaux qui ont répondu.

Tous les patients sont suivis par un pharmacien dans 33% des hôpitaux, et 47% utilisent une fonction d’analyse de données du dossier clinique informatisé pour identifier les patients à suivre. Les logiciels précis sont nommés dans l’article. Les plus gros hôpitaux étaient plus susceptibles d’utiliser un tel logiciel.

Pour la collecte des données nécessaires au suivi des patients, 75,2% des hôpitaux offrent à leurs pharmaciens une automatisation de la collecte dans le dossier clinique informatisé ou un logiciel de surveillance pour le suivi quotidien. Encore une fois, ceci était plus fréquent dans les plus gros hôpitaux.

Pour l’identification d’événements indésirables liés aux médicaments, 76,9% des hôpitaux ont un système d’alerte lors de la prescription d’un antidote, parmi d’autres stratégies.

Au sujet de la technologie d’assistance aux préparations magistrales, 16,4% des hôpitaux utilisent un logiciel de gestion des préparations, et ceci était plus fréquent dans les plus gros hôpitaux, avec 57,6% des hôpitaux de plus de 600 lits qui disposaient de cette technologie. Par rapport à 2017, on constate une augmentation du nombre d’hôpitaux utilisant la vérification du code-barre des ingrédients de préparation (26,9% à 31,6%), du nombre d’hôpitaux disposant d’un logiciel de gestion des préparations (12,8 à 16,4%), du nombre d’hôpitaux utilisant des photos ou des vidéos des préparations (12,5 à 14,1%), mais la proportion d’hôpitaux utilisant la gravimétrie est demeurée stable (5,5 à 5,4%). Toutes ces technologies étaient plus fréquentes dans les hôpitaux de plus grande taille. Ce qui me frappe particulièrement est que malgré tous ces chiffres, 59,9% des hôpitaux n’utilisaient aucune technologie pour les préparations stériles. Les barrières rapportées face à l’implantation de ces technologies sont listées, le coût étant l’obstacle le plus fréquent avec 77,8% des hôpitaux rapportant ce problème.

Parmi les données collectées et suivies par les département de pharmacie, on note des mesures de charge de travail et de productivité, les interventions cliniques des pharmaciens, des mesures d’inventaire, le temps de service des médicaments, le nombre de doses manquantes, et les erreurs de dispensation. On mesure aussi les niveaux d’utilisation des technologies, les contournements d’alertes de prescription électronique et des mesures d’utilisation des cabinets automatisés et des pompes intelligentes.

Parmi les données rapportées dans cet article, les choses que je souligne et qui sont aussi mentionnées dans la discussion sont les suivantes:

  • L’utilisation de fonctionnalités de collecte et d’analyse de données à partir du dossier clinique informatisé, pour le suivi quotidien des patients par des pharmaciens, est en place dans 75% des hôpitaux. On peut facilement s’imaginer comment ce genre de technologie peut améliorer l’efficience du pharmacien par rapport à une collecte manuelle, en particulier dans le contexte québécois où on doit lire des tonnes de documents manuscrits (souvent illisibles ou mal remplis) pour trouver l’information dont on a besoin.
  • L’utilisation de technologies d’assistance aux préparations magistrales, en particulier pour les préparations stériles, est en augmentation, malgré le fait que plus de la moitié des hôpitaux ne disposent d’aucune technologie, principalement en raison de leur coût élevé. Heureusement, les chiffres sont meilleurs pour les plus gros hôpitaux. Je continue de penser que les études cherchant à démontrer des bénéfices à ces technologies pourraient être meilleures, mais il demeure que je crois qu’elles deviendront incontournables à moyen terme.
  • Le suivi de mesures collectées à partir des systèmes informatiques utilisés par les pharmaciens et qui concernent les médicaments est en place dans la majorité des hôpitaux. Encore une fois, il est facile de voir comment l’obtention de métriques en temps réel peut aider les pharmaciens à optimiser leur travail et à documenter leur impact clinique.

Deux études multicentriques sur les logiciels d’assistance aux préparations stérile

J’ai parlé à plusieurs reprises d’études évaluant divers logiciels d’assistance aux préparations stériles, combinant essentiellement entre une et trois technologies parmi la lecture de code-barres, la prise de photos et la pesée (gravimétrie).

Deux études sur le sujet sont parues dans l’AJHP de juin. Ces deux études me semblent un peu étranges car elles ont seulement deux auteurs en commun (sur 10 pour la première et sur 4 pour la deuxième), cependant elles sont à toutes fins pratiques identiques sauf pour les hôpitaux ciblés, même le titre est presque identique et certains paragraphes sont copiés mot pour mot. On constate que les deux études ont été financées par le manufacturier multinational d’un logiciel d’assistance aux préparations stériles et que les deux études ciblent spécifiquement ce système sans le comparer à d’autres. La première inclut des hôpitaux de grande taille et la deuxième des hôpitaux plus petits (« communautaires »). De plus, la plus grosse étude comporte un paragraphe dans son introduction qui décrit le système, ce qui n’est pas mal en soi, mais en utilisant une formulation que je trouve plus appropriée à une brochure publicitaire qu’à une publication scientifique, en parlant des parts de marché du système, du nombre de doses préparées au total dans tous les hôpitaux qui ont ce produit et du nombre d’erreurs supposément évitées depuis le lancement du logiciel. Les références données pour ces chiffres sont les données internes du manufacturier et un magazine non scientifique sur les produits de pharmacie. Mon opinion est que ce genre d’affirmations basée sur des références molles n’a pas sa place dans une étude sensée être scientifique. Ceci étant dit, concentrons-nous sur la partie scientifique de ces études.

Il s’agit d’études comparatives entre des centres ayant implanté un logiciel d’assistance aux préparations stériles combinant la lecture de code-barres et la prise de photos, par rapport à des centres travaillant sans logiciel. La première étude concernait des centres de plus de 200 lits et la deuxième des centres de moins de 200 lits. Dans la première étude, la méthode de sélection des centres n’est pas décrite du tout. Dans la deuxième, on mentionne une sollicitation à travers une liste de diffusion nationale, cependant le nombre de répondants et les critères de sélection des centres participants ne sont pas décrits.

Les objectifs étaient très similaires dans les deux études. Dans les deux cas, on voulait comparer les taux et les types d’erreurs interceptées (objectif primaire) ainsi que le temps de préparation des médicaments ciblés par le système et les coûts. Les données pour les hôpitaux avec le logiciel étaient extraites à l’aide de rapports générés par le système. Pour les hôpitaux travaillant sans logiciel, un formulaire a été mis en place pour collecter les erreurs interceptées et les temps de préparation étaient mesurés au chronomètre. Les types d’erreur collectés n’étaient pas les mêmes entre les deux groupes; les erreurs collectées à partir du logiciel étaient plus détaillées, c’est-à-dire que chaque type d’erreur dans le système manuel était subdivisé en plusieurs types dans le logiciel. Le type d’erreur « produit expiré » était collecté à partir du logiciel mais n’existait pas dans la collecte manuelle. Pourtant, ce type d’erreur peut survenir dans un hôpital travaillant sans logiciel (j’en intercepte moi-même de temps en temps), je ne comprends pas cette omission. Le calcul de coûts était fait en multipliant simplement le temps de préparation par des salaires horaires hypothétiques pour les techniciens et pharmaciens. Le coût du système n’était pas compté. Il s’agit selon moi de données hypothétiques, donc je n’en parlerai pas davantage. Toutes les données ont été collectés sur une période de 3 mois sauf les données de temps qui ont été collectés sur 3 à 5 jours dans le groupe sans logiciel.

Résultats de l’étude pour les centres de plus de 200 lits

8 sites ont été inclus, 4 avec logiciel et 4 sans logiciel. Un centre dans le groupe sans logiciel était clairement plus gros que les autres avec plus de 115 000 doses dans ce seul centre durant l’étude. 96 865 doses ont été préparées dans le groupe avec logiciel et 244 273 dans le groupe sans logiciel. 2679 erreurs ont été détectées dans le groupe avec logiciel comparativement à 739 dans le groupe sans logiciel. Les taux d’erreurs rapportés dans l’article ont été calculés en obtenant le taux d’erreur par centre et en faisant une moyenne (non pondérée) entre les centres. Les résultats rapportés sont donc de 3,13% d’erreurs dans les centres avec logiciel contre 0,22% dans les centres sans logiciel. On rapporte une différence statistiquement significative entre ces moyennes. J’ai refait un test exact de Fisher sur la table de contingence avec les chiffres bruts et la différence demeure statistiquement significative.

Les erreurs les plus fréquemment rapportées étaient la sélection du mauvais médicament dans le groupe avec logiciel à 63,3% alors que le taux de cette erreur était de 17% dans les centres sans logiciel, où l’erreur la plus fréquente était un problème d’étiquetage à 22,7%. Les auteurs ne discutent pas de cette énorme différence de distribution. La détection accrue semble être l’explication intuitive, mais on peut imaginer que si autant d’erreurs de sélection de médicament avaient lieu dans les sites sans logiciel et n’étaient pas détectées, on verrait des conséquences cliniques extrêmement importantes, il semble donc y avoir ici un autre facteur en jeu. Malheureusement, les données présentées n’informent pas davantage sur ce point.

En ce qui a trait au temps de préparation, les données collectées dans le groupe avec logiciel incluaient le temps d’attente pour la vérification du produit alors que ce temps était exclus dans le groupe sans logiciel, les auteurs ont donc « normalisé » le temps de vérification des produits dans le groupe avec logiciel. Le temps total dans le groupe avec logiciel était de 7,01 minutes avec la normalisation et 11,59 minutes sans la normalisation. Le temps total dans le groupe sans logiciel était de 12,77 minutes. Encore une fois, ce sont des moyennes non pondérées entre les centres et non une vraie moyenne sur l’ensemble des données.

Résultats de l’étude pour les centres de moins de 200 lits

4 centres ont participé, 2 par groupe. 4944 doses ont été préparées dans le groupe avec logiciel et 2269 dans le groupe sans logiciel. 187 erreurs ont été détectées dans le groupe avec logiciel et seulement 3 dans le groupe sans logiciel, ce qui me semble quand même faible pour une période de collecte de 3 mois. Bien évidemment, il y a une différence statistiquement significative entre les groupes.

On observe la même différence de distribution sur les types d’erreurs alors que les erreurs de sélection de produit représentent plus de 70% des erreurs dans le groupe avec logiciel alors qu’il s’agit de 33% des erreurs dans le groupe sans logiciel.

La collecte de données pour le temps de préparation semble avoir été problématique dans le groupe sans logiciel et donc je crois qu’on ne peut pas trop se fier à ces données.

Au total

Ces deux études me semblent difficiles à interpréter avec confiance. L’énorme duplication entre les deux publications m’apparaît étrange. En ce qui a trait à la détection d’erreur, la différence importante dans la distribution des types d’erreurs entre les groupes, dans les deux études, m’amène à penser que l’on ne peut pas comparer simplement les taux d’erreurs entre ces groupes. Il semble y avoir un facteur en jeu qui n’est pas capturé dans les données présentées puisque je n’arrive pas à croire qu’autant d’erreurs de sélection de médicament puissent avoir été non-détectées dans les centres sans logiciel. En ce qui a trait au temps de préparation, la méthode de calcul différente entre les groupes, ayant mené à la nécessité de « normaliser » une partie du temps calculé dans le groupe avec logiciel, me semble injustifiable. La méthode de collecte dans les centres sans logiciel aurait dû être prévue pour être directement comparable à la durée capturée par le logiciel. Je ne crois donc pas que l’on puisse se fier à ces temps.

En ce qui a trait à l’applicabilité de ces données, j’aurais aimé avoir un peu plus de détails sur la méthode de travail dans les centres inclus dans l’étude. Je crois comprendre que tous les centres de la première étude utilisaient une préparation dose par dose en « temps réel », alors qu’un hôpital dans la petite étude préparait ses doses la veille, mais les données de ce centre ont été exclues. Je ne crois donc pas que l’on puisse appliquer directement les conclusions de ces études au Québec, où la préparation est généralement faite en lots ou en service quotidien avec une préparation la veille de l’administration.