Vérification à distance de préparations stériles

Dans l’AJHP de mars 2020, probablement par coïncidence tout juste au début de la pandémie, un article discutait de l’utilisation de logiciels d’assistance aux préparations stériles pour valider à distance ces préparations. Plusieurs articles sur ces systèmes ont été publiés au cours des dernières années, généralement dans une optique de rechercher des avantages par rapport à l’exactitude des préparations ou à l’interception d’erreurs, j’en ai déjà parlé sur ce blogue. Ces études comportaient plusieurs lacunes, notamment des définitions différentes d’erreur en pré et en post. Ici, il s’agit à ma connaissance du premier article comparant plutôt deux manières d’utiliser le même système, soit directement au lieu de préparation ou à distance.

L’étude avait pour objectif de comparer les taux de détection d’erreurs et le temps de validation des préparations stériles avec le logiciel d’assistance, lorsque utilisé par le pharmacien sur place ou à distance. Le système incluait la gravimétrie, la prise de photos et la vérification par code-barres. Les auteurs ont aussi effectué un sondage sur les perceptions des utilisateurs. Une analyse de coûts a été réalisée mais celle-ci repose essentiellement sur les coûts d’équipement de protection évités parce que dans l’utilisation à distance, les pharmaciens n’entraient pas dans la salle blanche. Cependant, je ne comprends pas pourquoi ceux-ci entraient dans la salle dans le groupe « sur place », donc cette évaluation me semble un peu artificielle et je n’en parlerai pas davantage.

L’étude comportait deux groupes. Dans le premier, la vérification à distance des préparations était dans le même bâtiment mais en dehors de l’aire de préparations stériles. Dans le deuxième groupe, la validation à distance s’effectuait dans un autre bâtiment situé à plusieurs kilomètres de l’aire de préparation. Un ensemble de préparations stériles préparées durant une période de 3 mois ont été vérifiées à la fois par un pharmacien sur place et un pharmacien à distance, dans chaque groupe.

2609 préparations ont été incluses dans l’étude car vérifiées à la fois sur place et à distance, soit 30% des 8595 préparations réalisées durant la période d’étude. 10 préparations contenaient une erreur selon la vérification sur place et 17 selon la vérification à distance. Aucune de ces erreurs n’ont été détectées par le pharmacien sur place sans avoir été vues par le pharmacien à distance. Cette différence de taux d’erreurs n’était pas statistiquement significative, mais on se doute que la puissance de l’étude était faible avec ce petit nombre d’erreurs. En fait, on sait très bien que les taux d’erreurs dans ce genre d’étude sont faibles, alors je trouve surprenant qu’il n’y ait pas eu de calcul de puissance si les auteurs voulaient trouver une différence, ou bien qu’ils aient choisi un tel devis comparatif s’ils ne s’attendaient pas à atteindre une puissance suffisante.

En ce qui a trait au délai de vérification, la vérification à distance était significativement plus longue avec une médiane de 0,45 minute comparativement à 0,18 minute pour la vérification sur place. On peut cependant se demander si cette différence est « opérationnellement » significative, correspondant à 16 secondes en pratique. 25 pharmaciens ont répondu au sondage avant l’implantation et 14 après. Les résultats du sondage démontrent que moins de pharmaciens (64% vs 50%) croyaient que la vérification à distance était efficiente du point de vue du temps, moins (56% vs 43%) croyaient qu’elle offrait une valeur ajoutée et moins (44% vs 29%) croyaient qu’il n’y aurait pas d’impact sur la sécurité d’emploi (on voit ici des craintes quand même importantes sur cet élément). Il est également intéressant de constater que l’opinion que le système à distance était aussi précis qu’une vérification sur place n’a pas changée mais était impopulaire (32% vs 29%).

L’étude est intéressante car avec la popularité grandissante du télétravail en cette période, il est raisonnable de se questionner sur la possibilité d’effectuer la vérification de préparations à distance. Les auteurs notent dans leur discussion que les numéros de lot et dates d’expiration des produits n’était pas visibles sur les photos durant leur étude, et que les fonctionnalités de suivi de ces éléments disponibles dans le logiciel n’étaient pas actives au moment de l’étude. Je me questionne dans ce cas sur comment la vérification à distance a pu être assurée sachant que les pharmaciens à distance ne pouvaient pas vérifier l’expiration des produits. Ceci a peut-être contribué à l’opinion négative quant à la précision de cette vérification. Également, les études antérieures sur les systèmes avec gravimétrie démontrent que certaines préparations, notamment celles à petit volume, comportent des grandes marges d’erreurs dans ces systèmes et doivent en être exclues. Je trouve étrange qu’il n’y ait aucune mention de cela dans cet article.

En conclusion, je crois que cette étude démontre qu’il est certainement possible d’effectuer une vérification à distance de préparations stériles en utilisant un logiciel d’assistance qui sécurise le processus, cependant il ne faut pas s’attendre à ce que cette validation soit plus rapide ou plus sécuritaire qu’une validation sur place. Il faut définitivement prendre en compte le problème des éléments non visibles ou non gérés par le système comme les numéros de lots et les dates d’expiration des ingrédients, et l’article ne discute malheureusement pas du problème des préparations non gérées par ces systèmes, lesquelles nécessiteront une vérification sur place. J’ai donc de la difficulté à voir dans quel scénario une telle validation à distance serait avantageuse, si ce n’est que pour prêter main forte à un collègue sans se déplacer en cas de surcroît de travail.

Deux études multicentriques sur les logiciels d’assistance aux préparations stérile

J’ai parlé à plusieurs reprises d’études évaluant divers logiciels d’assistance aux préparations stériles, combinant essentiellement entre une et trois technologies parmi la lecture de code-barres, la prise de photos et la pesée (gravimétrie).

Deux études sur le sujet sont parues dans l’AJHP de juin. Ces deux études me semblent un peu étranges car elles ont seulement deux auteurs en commun (sur 10 pour la première et sur 4 pour la deuxième), cependant elles sont à toutes fins pratiques identiques sauf pour les hôpitaux ciblés, même le titre est presque identique et certains paragraphes sont copiés mot pour mot. On constate que les deux études ont été financées par le manufacturier multinational d’un logiciel d’assistance aux préparations stériles et que les deux études ciblent spécifiquement ce système sans le comparer à d’autres. La première inclut des hôpitaux de grande taille et la deuxième des hôpitaux plus petits (« communautaires »). De plus, la plus grosse étude comporte un paragraphe dans son introduction qui décrit le système, ce qui n’est pas mal en soi, mais en utilisant une formulation que je trouve plus appropriée à une brochure publicitaire qu’à une publication scientifique, en parlant des parts de marché du système, du nombre de doses préparées au total dans tous les hôpitaux qui ont ce produit et du nombre d’erreurs supposément évitées depuis le lancement du logiciel. Les références données pour ces chiffres sont les données internes du manufacturier et un magazine non scientifique sur les produits de pharmacie. Mon opinion est que ce genre d’affirmations basée sur des références molles n’a pas sa place dans une étude sensée être scientifique. Ceci étant dit, concentrons-nous sur la partie scientifique de ces études.

Il s’agit d’études comparatives entre des centres ayant implanté un logiciel d’assistance aux préparations stériles combinant la lecture de code-barres et la prise de photos, par rapport à des centres travaillant sans logiciel. La première étude concernait des centres de plus de 200 lits et la deuxième des centres de moins de 200 lits. Dans la première étude, la méthode de sélection des centres n’est pas décrite du tout. Dans la deuxième, on mentionne une sollicitation à travers une liste de diffusion nationale, cependant le nombre de répondants et les critères de sélection des centres participants ne sont pas décrits.

Les objectifs étaient très similaires dans les deux études. Dans les deux cas, on voulait comparer les taux et les types d’erreurs interceptées (objectif primaire) ainsi que le temps de préparation des médicaments ciblés par le système et les coûts. Les données pour les hôpitaux avec le logiciel étaient extraites à l’aide de rapports générés par le système. Pour les hôpitaux travaillant sans logiciel, un formulaire a été mis en place pour collecter les erreurs interceptées et les temps de préparation étaient mesurés au chronomètre. Les types d’erreur collectés n’étaient pas les mêmes entre les deux groupes; les erreurs collectées à partir du logiciel étaient plus détaillées, c’est-à-dire que chaque type d’erreur dans le système manuel était subdivisé en plusieurs types dans le logiciel. Le type d’erreur « produit expiré » était collecté à partir du logiciel mais n’existait pas dans la collecte manuelle. Pourtant, ce type d’erreur peut survenir dans un hôpital travaillant sans logiciel (j’en intercepte moi-même de temps en temps), je ne comprends pas cette omission. Le calcul de coûts était fait en multipliant simplement le temps de préparation par des salaires horaires hypothétiques pour les techniciens et pharmaciens. Le coût du système n’était pas compté. Il s’agit selon moi de données hypothétiques, donc je n’en parlerai pas davantage. Toutes les données ont été collectés sur une période de 3 mois sauf les données de temps qui ont été collectés sur 3 à 5 jours dans le groupe sans logiciel.

Résultats de l’étude pour les centres de plus de 200 lits

8 sites ont été inclus, 4 avec logiciel et 4 sans logiciel. Un centre dans le groupe sans logiciel était clairement plus gros que les autres avec plus de 115 000 doses dans ce seul centre durant l’étude. 96 865 doses ont été préparées dans le groupe avec logiciel et 244 273 dans le groupe sans logiciel. 2679 erreurs ont été détectées dans le groupe avec logiciel comparativement à 739 dans le groupe sans logiciel. Les taux d’erreurs rapportés dans l’article ont été calculés en obtenant le taux d’erreur par centre et en faisant une moyenne (non pondérée) entre les centres. Les résultats rapportés sont donc de 3,13% d’erreurs dans les centres avec logiciel contre 0,22% dans les centres sans logiciel. On rapporte une différence statistiquement significative entre ces moyennes. J’ai refait un test exact de Fisher sur la table de contingence avec les chiffres bruts et la différence demeure statistiquement significative.

Les erreurs les plus fréquemment rapportées étaient la sélection du mauvais médicament dans le groupe avec logiciel à 63,3% alors que le taux de cette erreur était de 17% dans les centres sans logiciel, où l’erreur la plus fréquente était un problème d’étiquetage à 22,7%. Les auteurs ne discutent pas de cette énorme différence de distribution. La détection accrue semble être l’explication intuitive, mais on peut imaginer que si autant d’erreurs de sélection de médicament avaient lieu dans les sites sans logiciel et n’étaient pas détectées, on verrait des conséquences cliniques extrêmement importantes, il semble donc y avoir ici un autre facteur en jeu. Malheureusement, les données présentées n’informent pas davantage sur ce point.

En ce qui a trait au temps de préparation, les données collectées dans le groupe avec logiciel incluaient le temps d’attente pour la vérification du produit alors que ce temps était exclus dans le groupe sans logiciel, les auteurs ont donc « normalisé » le temps de vérification des produits dans le groupe avec logiciel. Le temps total dans le groupe avec logiciel était de 7,01 minutes avec la normalisation et 11,59 minutes sans la normalisation. Le temps total dans le groupe sans logiciel était de 12,77 minutes. Encore une fois, ce sont des moyennes non pondérées entre les centres et non une vraie moyenne sur l’ensemble des données.

Résultats de l’étude pour les centres de moins de 200 lits

4 centres ont participé, 2 par groupe. 4944 doses ont été préparées dans le groupe avec logiciel et 2269 dans le groupe sans logiciel. 187 erreurs ont été détectées dans le groupe avec logiciel et seulement 3 dans le groupe sans logiciel, ce qui me semble quand même faible pour une période de collecte de 3 mois. Bien évidemment, il y a une différence statistiquement significative entre les groupes.

On observe la même différence de distribution sur les types d’erreurs alors que les erreurs de sélection de produit représentent plus de 70% des erreurs dans le groupe avec logiciel alors qu’il s’agit de 33% des erreurs dans le groupe sans logiciel.

La collecte de données pour le temps de préparation semble avoir été problématique dans le groupe sans logiciel et donc je crois qu’on ne peut pas trop se fier à ces données.

Au total

Ces deux études me semblent difficiles à interpréter avec confiance. L’énorme duplication entre les deux publications m’apparaît étrange. En ce qui a trait à la détection d’erreur, la différence importante dans la distribution des types d’erreurs entre les groupes, dans les deux études, m’amène à penser que l’on ne peut pas comparer simplement les taux d’erreurs entre ces groupes. Il semble y avoir un facteur en jeu qui n’est pas capturé dans les données présentées puisque je n’arrive pas à croire qu’autant d’erreurs de sélection de médicament puissent avoir été non-détectées dans les centres sans logiciel. En ce qui a trait au temps de préparation, la méthode de calcul différente entre les groupes, ayant mené à la nécessité de « normaliser » une partie du temps calculé dans le groupe avec logiciel, me semble injustifiable. La méthode de collecte dans les centres sans logiciel aurait dû être prévue pour être directement comparable à la durée capturée par le logiciel. Je ne crois donc pas que l’on puisse se fier à ces temps.

En ce qui a trait à l’applicabilité de ces données, j’aurais aimé avoir un peu plus de détails sur la méthode de travail dans les centres inclus dans l’étude. Je crois comprendre que tous les centres de la première étude utilisaient une préparation dose par dose en « temps réel », alors qu’un hôpital dans la petite étude préparait ses doses la veille, mais les données de ce centre ont été exclues. Je ne crois donc pas que l’on puisse appliquer directement les conclusions de ces études au Québec, où la préparation est généralement faite en lots ou en service quotidien avec une préparation la veille de l’administration.

Interception d’erreurs de préparation de chimiothérapie avec un système de photos et code-barres

L’utilisation de logiciels faisant appel à diverses technologies pour sécuriser la préparation des médicaments, en particulier les produits stériles et la chimiothérapie, ne date pas d’hier. Ces derniers temps, les systèmes avec gravimétrie sont particulièrement en vogue. Un nouvel article venant d’Espagne a été publié au mois de mars, et décrit un système avec prise de photos et vérifications par code-barres sans gravimétrie.

L’étude a eu lieu dans un hôpital académique espagnol de 1300 lits, préparant 220 doses de chimiothérapie par jour en moyenne. Les données de toutes les préparations de chimiothérapie de juin à septembre 2017 ont été incluses dans l’étude. L’objectif primaire était de décrire les erreurs interceptées par le système, en particulier le nombre, le type et la sévérité des erreurs. Une analyse économique de l’impact du système a été réalisée en objectif secondaire. Je ne discuterai pas de l’analyse de la sévérité des erreurs et de l’analyse économique ici, car je trouve que ce genre d’analyse repose souvent sur des hypothèses qui sont difficiles à exporter en dehors du contexte de l’étude; je crois que ce genre d’analyse devrait s’effectuer localement et non se baser sur des données d’autres centres.

Le système comme tel permet de prendre des photos des préparations à différentes étapes, de valider l’identité des produits utilisés avec la lecture de leurs code-barres, et de documenter les numéros de lots et les dates d’expiration des produits.

9872 préparations pour 132 médicaments et 1462 patients ont été faites avec le système. 18 techniciens différents ont fait les préparations. 78 erreurs impliquant 32 médicaments ont été interceptées. 56 (69,2%) erreurs étaient des erreurs de dose, 20 (28,2%) étaient des erreurs de technique et 2 (2,6%) des erreurs de sélection de médicament.

Je trouve l’étude intéressante dans le contexte récent où on ne parle que de gravimétrie. Cependant, l’absence de données sur la prévalence d’erreurs avant la mise en place du système rend difficile l’appréciation du bénéfice réel. En particulier, les auteurs décrivent comment la procédure de vérification en place avant que ce système soit implanté n’impliquait que la vérification des produits source et l’inspection visuelle du produit fini. Ceci me semble inhabituel; les pharmaciens ne vérifiaient-ils pas les volumes ajoutés ? Si c’est effectivement le cas, il s’agit d’une pratique très différente du baseline de la pratique québécoise, où les pharmaciens vérifient tous les volumes avant l’ajout. L’étude est donc intéressante à connaître, mais l’interprétation de ses résultats est difficile.