Je suis un fervent partisan de l’EBP, encore nommée pratique fondée sur les preuves ou pratique factuelle. Ceci étant, il faut reconnaître que son utilisation est coûteuse en énergie, en temps et peut parfois laisser un goût amer. Malgré tous les défauts que nous pouvons lui trouver, elle est peut-être un des meilleurs moyens de soigner que nous avons. Autant donc sonder ses limites pour pouvoir l’optimiser.
Avons-nous une définition ?
Il est souvent écrit que l’EBP est un trépied mêlant les preuves scientifiques, l’expérience du praticien et les attentes du patient et que ces trois éléments sont d’égales importances. Il est d’ailleurs souvent repris la citation de Sackett[1]Sackett, D. L., Rosenberg, W. M., Gray, J., Haynes, R. B., & Richardson, W. S. (1996). Evidence Based Medicine: What it is and what it isn’t. Bmj, 312(7023), 71–72. :
Sans expertise clinique, la pratique risque de devenir tyrannisée par les preuves, car même d’excellentes preuves externes peuvent être inapplicables ou inappropriées pour un patient à l’échelle individuelle.
Ces éléments aident à comprendre pourquoi l’expertise clinique est importante dans le choix de la technique, mais l’utilisation des preuves scientifiques est là pour gommer les défauts de l’expérience dans la pratique. Cette deuxième citation de Sackett dans le même article explicatif permet de préciser les choses :
C’est quand on se pose des questions sur la thérapie que nous devrions éviter les approches non-expérimentales puisqu’elles conduisent fréquemment à des conclusions faussement positives sur l’efficacité. Parce que l’essai randomisé, et plus particulièrement la revue systématique de plusieurs essais est plus à même de nous informer et donc moins à même de nous induire en erreur, c’est devenu le « gold standard » pour juger si un traitement fait plus de bien que de mal.
Il n’y a pas la même importance accordée aux 3 éléments, Erik Meira les décrit, je pense assez justement, comme un entonnoir et pas un trépied[2]https://thesciencept.com/flush-your-stool-down-the-funnel/. En fait, l’idée est la même que celle que Claire Johnson énonçait en 2008 dans un édito[3]Johnson, C. (2008). Evidence-Based Practice in 5 Simple Steps. Journal of Manipulative and Physiological Therapeutics, 31(3), 169–170. ou que Melnyk et coll décrirent un peu plus tard[4]Melnyk, B. M., Fineout-overholt, E., Stillwell, S. B., & Williamson, K. M. (2010). Evidence-based Practice: Step by Step: The Seven Steps of Evidence-based Practice. Ajn, American Journal of … Continue reading, d’abord rechercher les preuves scientifiques, les évaluer et ensuite se servir de son expertise clinique pour vérifier si elles s’appliquent au patient pour répondre à ses attentes. Enfin, évaluer les résultats.
Les différents courants de pensée
L’Evidence Informed Practice
Un peu partout dans le monde nous avons pu voir un fossé se creuser entre les obsédés des preuves scientifiques et ceux qui préféraient écouter leur expérience personnelle. Cela a mené à la création du terme Evidence Informed Practice[5]Melnyk, B. M., & Newhouse, R. (2014). Evidence-based Practice Versus Evidence-informed Practice: A Debate That Could Stall Forward Momentum in Improving Healthcare Quality, Safety, Patient … Continue reading. La pratique informée par les preuves a émergée car des auteurs trouvaient que dans l’EBP les attentes du patient et l’expertise du clinicien étaient trop négligées[6]Woodbury, M Gail & , Bscpt & L Msc, Janet & Kuhnke, Janet. (2014). Evidence-based Practice vs. Evidence-informed Practice: What’s the Difference?. Wound Care Canada. 12. 18-21.. Évidemment, cette critique a été mal accueillie car si un praticien néglige les attentes du patient et de l’expérience clinique dans sa pratique, ce n’est plus de l’EBP. Le terme fut donc utilisé de manière interchangeable pendant de nombreuses années, jusqu’à ce que certaines personnes estiment que « informée par » et « fondée sur » ne pouvait pas être équivalent. L’idée de ceux qui soutiennent aujourd’hui l’EIP est que rechercher « la meilleure preuve disponible » de l’EBP est trop rigide alors que d’autres preuves devraient être prises en compte.
La Science Based Practice
De l’autre côté du tableau, des critiques ont émergées quand à l’utilisation des essais contrôlés randomisés pour toutes les thérapies, mêmes les plus improbables. Ce ne serait pas si gênant sans les biais de publication et les erreurs liées à l’imprécision qu’on a fixé arbitrairement (5% de chance d’avoir un faux positif, 20% de chance d’avoir un faux négatif). À cause de ceux-ci, il est probable qu’une publication sur deux soit fausse[7]Horton, R. (2015). Offline: What is medicine’s 5 sigma? The Lancet, 385(9976), 1380.. En plus certains chercheurs utilisent des stratagèmes un peu douteux, qu’on appelle p-hacking, pour augmenter les chances de trouver une différence significative (séparer les hommes des femmes, ne pas réellement randomiser les groupes, étudier un grand nombre de variables…), d’autres trouvent des résultats statistiques à posteriori à cause d’un grand nombre de variables étudiées (par hasard, il y a forcément des choses qui correspondent quand on a assez de variables), c’est ce qu’on appelle le data dredging. Ce ne serait pas moins de 72% des chercheurs qui déclarent avoir eu une pratique douteuse de ce genre[8]Fanelli, D. (2009). How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data. PloS One, 4(5), e5738..
Ainsi, Steven Novella s’intéresse à la plausibilité avant d’utiliser une preuve scientifique puisqu’un traitement qui viole les lois de la physique et donc ne marche vraisemblablement pas peut quand même avoir un ou plusieurs essais contrôlés randomisés favorables[9]Plausibility in Science-Based Medicine. Un exemple qui illustre bien ce besoin selon lui est l’acupuncture qui, après plus de 3000 publications, montre tantôt des effets supérieurs au placebo, tantôt pas[10]Acupuncture Doesn’t Work et même pour des pathologies identiques. On peut mettre ça sur le compte de la mauvaise méthodologie des essais cliniques puisqu’après tant d’années et d’essais, si l’acupuncture avait réellement eu un effet, on le saurait aujourd’hui.
Et en pratique
Plausibilité ignorée
Le principe de plausibilité est une bonne idée pour contrecarrer les effets de la mauvaise recherche. En revanche, si on s’intéresse un peu au passé, une des thérapies que je valorise le plus aujourd’hui, l’éducation aux neurosciences de la douleur (peut-être à tort quand on voit les résultats de la dernière revue systématique sur les lombalgies[11]Tegner, H., Frederiksen, P., Esbensen, B. A., & Juhl, C. (2018). Neurophysiological Pain-education for Patients with Chronic Low Back Pain – A Systematic Review and Meta-analysis. The Clinical … Continue reading) était considérée comme non plausible en 1999 et le Dr Sarno qui était visiblement un des pionniers du sujet était vu comme un illuminé :
Le rejet d’une pratique sur la plausibilité ne fait donc pas partie de ce que j’utiliserais aujourd’hui.
MàJ du 05/07/2018 : Finalement, après avoir creusé un peu le sujet, John Sarno avait une pratique assez éloignée de l’éducation aux neurosciences de la douleur. Il avait eu l’intuition que le cerveau jouait un rôle majeur dans l’entretien des lombalgies chroniques mais restait quand même embourbé dans une pseudo-science. Il avait inventé un syndrome pour justifier physiquement les douleurs, le syndrome de tension myosite. Dans ce syndrome, le cerveau créé une douleur pour se distraire de ses émotions qu’on ne veut pas affronter. Il le ferait en réduisant la circulation sanguine, pour déclencher une hypoxie et stresser les tissus. On comprend maintenant pourquoi il a été si sévèrement jugé en son temps.
Le choix des preuves
Au début, juste après mon diplôme, j’étais très heureux d’appliquer l’Evidence Based Practice, de partir d’une situation clinique avec une question PICO pour aller chercher les meilleures preuves possibles, lire les revues systématiques sur le sujet pour ensuite retenir ce que j’appliquais au patient. Ca a été un magnifique moteur pour développer mes connaissances. Aujourd’hui, j’en ai perdu l’intérêt, les preuves étant assez redondantes, je continue donc de lire des essais cliniques mais d’une manière non systématique comme avant.
Un point gênant également est que de nouvelles thérapeutiques émergent, comme par exemple le Tendon Neuroplastic Training[12]Rio, E., Kidgell, D., Moseley, G. L., Gaida, J., Docking, S., Purdam, C., & Cook, J. (2016). Tendon neuroplastic training: changing the way we think about tendon rehabilitation: a narrative … Continue reading d’Ebonie Rio qui consistent à imposer un temps de contraction, soit en isométrique, soit en isotonique pour réactiver les aires motrices primaires du cortex cérébral. Des effets ont été montrés dans un ECR avec très peu de sujets sur les tendinopathies patellaires[13]Rio, E., Kidgell, D., Purdam, C., Gaida, J., Moseley, G. L., Pearce, A. J., & Cook, J. (2015). Isometric exercise induces analgesia and reduces inhibition in patellar tendinopathy. British … Continue reading[14]Rio, E., Van Ark, M., Docking, S., Moseley, G. L., Kidgell, D., Gaida, J. E., … Cook, J. (2017). Isometric contractions are more analgesic than isotonic contractions for patellar tendon pain: An … Continue reading. Si je m’arrête à la meilleure preuve, je dois faire un protocole de Silbernagel-combiné (Excentrique/Concentrique – Excentrique, plus vite, exercice d’équilibre et enfin plyométrique) avec éventuellement l’ajout d’ondes de choc au traitement. Pourtant, en pratique je n’hésite pas à proposer de l’isométrique qui semble apporter des effets antalgiques de court terme.
J’ai donc finalement choisi une approche un peu plus proche de ce qu’est décrit pour l’EIP et je crois que c’est l’approche que prendront beaucoup de cliniciens. On n’a aucune preuve stricte qui dit d’éviter les étirements du tendon calcanéen mais avec les informations de la science fondamentale, on a pu déterminer que ce n’était pas le meilleur moyen de charger le tendon car pouvait ajouter de la compression par enroulement autour du calcanéus (non physiologique quand maintenue). Il y a beaucoup d’autres données comme celles-ci qu’on ne pourra pas trouver avec une recherche systématique de la meilleure preuve clinique mais qui finalement seront intéressantes à prendre en compte dans une démarche clinique.
Jeter la pyramide des preuves
La meilleure des preuves de la pyramide n’est pas toujours la plus proche de la vérité à cause des problèmes de p-hacking entre autres, mais aussi parce que certaines revues systématiques ne sont parfois basées que sur des essais de mauvaise qualité voire une absence d’essai. Il vaut parfois mieux un bon essai clinique qu’une mauvaise revue systématique. Utiliser une approche GRADE, qui est désormais recommandée par la Cochrane Foundation, aidera à estomper ces biais. L’idée de l’approche GRADE est de promouvoir la totalité des preuves plutôt que de valoriser le résumé de celles-ci[15]Djulbegovic, B., & Guyatt, G. H. (2017). Progress in evidence-based medicine: a quarter century on. The Lancet, 6736(16), 1–9..
Les guidelines
Est-ce que « suivre les guidelines » devrait être dans les guidelines ? Autrement dit, est-ce qu’on devrait recommander de suivre les recommandations ? Alors que ça pourrait être différent pour ceux qui s’occupent des pathologies neurologiques et respiratoires, pour les kinésithérapeutes qui s’occupent des troubles musculo-squelettiques, suivre les guidelines ne semble pas améliorer les résultats des patients[16]Bekkering, G. E., van Tulder, M. W., Hendriks, E. J. M., Koopmanschap, M. A., Knol, D. L., Bouter, L. M., & Oostendorp, R. A. B. (2005). Implementation of clinical guidelines on physical therapy … Continue reading[17]Rebbeck, T., Maher, C. G., & Refshauge, K. M. (2006). Evaluating two implementation strategies for whiplash guidelines in physiotherapy: a cluster randomised trial. The Australian Journal of … Continue reading[18]Horn, M. E., Brennan, G. P., George, S. Z., Harman, J. S., & Bishop, M. D. (2016). Clinical Outcomes, Utilization, and Charges in Persons With Neck Pain Receiving Guideline Adherent Physical … Continue reading[19]Rutten, G. M., Degen, S., Hendriks, E. J., Braspenning, J. C., Harting, J., & Oostendorp, R. A. (2010). Adherence to Clinical Practice Guidelines for Low Back Pain in Physical Therapy: Do … Continue reading.
Comment expliquer ces résultats ?
Les trous dans la littérature doivent être complétés par des opinions d’experts[20]O’Connell, N. E., & Ward, S. P. (2018). Low Back Pain: What Have Clinical Guidelines Ever Done for Us? Journal of Orthopaedic & Sports Physical Therapy, 48(2), 54–57., ce qui explique peut-être une partie des discordances qu’on peut voir entre les guidelines (je n’ai pas pu retrouver la source de cette image, je la commenterais dès que ce sera fait) :
Peut-être que les essais cliniques sur lesquels les guidelines se basent sont trop biaisés. Personnellement, je penche en faveur du fait que les guidelines et les études manquent simplement quelque chose d’important, le discours tenu au patient. Tant que nous n’aurons pas d’études ou les paroles tenues seront standardisées, on aura du mal à interpréter les résultats. Tant que nous n’aurons pas dans les guidelines la manière de communiquer avec le patient, peut-être que nous ne serons pas capable de prédire les effets de l’adhésion à ces guidelines.
Abandonner l’EBP ?
Un des reproches souvent fait à la pratique selon les preuves est que pour un unique individu, les essais contrôlés sur une population ne sont peut-être pas pertinents puisque l’individu sera unique, aura des attentes particulières, des comorbidités,… C’est exactement pour la même raison qu’on ne peut pas rejeter l’EBP. Peut-être que traquer les meilleures preuves de la littérature n’améliorera pas significativement la majorité des patients par rapport à si je les traitais selon mes habitudes, mais peut-être que pour UN individu, cela fera la différence (si ça n’a pas déjà été le cas).
Tirer des conclusions sur les réussites des expériences passées avec les patients ne devrait pas exister quand on a des données plus fiables. Même en lisant des études nous sommes soumis à des biais cognitifs, mais lorsque l’on se base sur nos expériences, les biais semblent bien plus nombreux :
C’est le codex des biais cognitifs que vous trouverez en version zoomable ici. Le post hoc ergo propter hoc, la généralisation abusive, les biais liés à la mémoire, et bien d’autres nous compliquent la tâche. En plus, si un patient a plutôt bien récupéré après sa rééducation, comment savoir qu’avec une autre approche, il n’aurait pas encore mieux récupéré ? Comment savoir qu’à long terme on n’a pas empiré sa condition lors d’une rechute ?
On a besoin d’études qui répondent à ce genre de questions.
Conclusion
Cet article n’existe que pour partager les problèmes que je rencontre dans la pratique de l’EBP sous toutes ses formes, peu importe le nom qu’on lui donne et les réflexions que j’ai mené pour tenter de les résoudre. Peut-être pourrez-vous m’apporter des réponses auxquelles je n’ai pas pensé. Pour l’instant en bref ce que je retiens et comment je pratique :
- Se concentrer sur le patient unique, ce dont il a besoin, mais aussi ce qu’il veut.
- Continuer à gagner en connaissance pour les fois où ça fera la différence.
- Se méfier des études isolées, toujours vérifier si d’autres études dans la littérature ne trouvent pas des résultats contradictoires. Les évaluer prudemment.
- Prendre en considération d’autres données que les Essais cliniques Contrôlés Randomisés.
- Être prêt à changer d’avis car la pratique est pavée d’incertitudes.
- Envisager la possibilité que le traitement nécessaire soit singulièrement à l’opposé des thérapies recommandées dans la littérature mais commencer quand même par celles-ci.
References
↑1 | Sackett, D. L., Rosenberg, W. M., Gray, J., Haynes, R. B., & Richardson, W. S. (1996). Evidence Based Medicine: What it is and what it isn’t. Bmj, 312(7023), 71–72. |
---|---|
↑2 | https://thesciencept.com/flush-your-stool-down-the-funnel/ |
↑3 | Johnson, C. (2008). Evidence-Based Practice in 5 Simple Steps. Journal of Manipulative and Physiological Therapeutics, 31(3), 169–170. |
↑4 | Melnyk, B. M., Fineout-overholt, E., Stillwell, S. B., & Williamson, K. M. (2010). Evidence-based Practice: Step by Step: The Seven Steps of Evidence-based Practice. Ajn, American Journal of Nursing, 110(1), 51–53. |
↑5 | Melnyk, B. M., & Newhouse, R. (2014). Evidence-based Practice Versus Evidence-informed Practice: A Debate That Could Stall Forward Momentum in Improving Healthcare Quality, Safety, Patient Outcomes, and Costs. Worldviews on Evidence-Based Nursing, 11(6), 347–349. |
↑6 | Woodbury, M Gail & , Bscpt & L Msc, Janet & Kuhnke, Janet. (2014). Evidence-based Practice vs. Evidence-informed Practice: What’s the Difference?. Wound Care Canada. 12. 18-21. |
↑7 | Horton, R. (2015). Offline: What is medicine’s 5 sigma? The Lancet, 385(9976), 1380. |
↑8 | Fanelli, D. (2009). How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data. PloS One, 4(5), e5738. |
↑9 | Plausibility in Science-Based Medicine |
↑10 | Acupuncture Doesn’t Work |
↑11 | Tegner, H., Frederiksen, P., Esbensen, B. A., & Juhl, C. (2018). Neurophysiological Pain-education for Patients with Chronic Low Back Pain – A Systematic Review and Meta-analysis. The Clinical Journal of Pain, 1. |
↑12 | Rio, E., Kidgell, D., Moseley, G. L., Gaida, J., Docking, S., Purdam, C., & Cook, J. (2016). Tendon neuroplastic training: changing the way we think about tendon rehabilitation: a narrative review. British Journal of Sports Medicine, 50(4), 209–215. |
↑13 | Rio, E., Kidgell, D., Purdam, C., Gaida, J., Moseley, G. L., Pearce, A. J., & Cook, J. (2015). Isometric exercise induces analgesia and reduces inhibition in patellar tendinopathy. British Journal of Sports Medicine, 49(19), 1277–1283. |
↑14 | Rio, E., Van Ark, M., Docking, S., Moseley, G. L., Kidgell, D., Gaida, J. E., … Cook, J. (2017). Isometric contractions are more analgesic than isotonic contractions for patellar tendon pain: An in-season randomized clinical trial. Clinical Journal of Sport Medicine, 27(3), 253–259. |
↑15 | Djulbegovic, B., & Guyatt, G. H. (2017). Progress in evidence-based medicine: a quarter century on. The Lancet, 6736(16), 1–9. |
↑16 | Bekkering, G. E., van Tulder, M. W., Hendriks, E. J. M., Koopmanschap, M. A., Knol, D. L., Bouter, L. M., & Oostendorp, R. A. B. (2005). Implementation of clinical guidelines on physical therapy for patients with low back pain: randomized trial comparing patient outcomes after a standard and active implementation strategy. Physical Therapy, 85(6), 544–55. |
↑17 | Rebbeck, T., Maher, C. G., & Refshauge, K. M. (2006). Evaluating two implementation strategies for whiplash guidelines in physiotherapy: a cluster randomised trial. The Australian Journal of Physiotherapy, 52(3), 165–74. |
↑18 | Horn, M. E., Brennan, G. P., George, S. Z., Harman, J. S., & Bishop, M. D. (2016). Clinical Outcomes, Utilization, and Charges in Persons With Neck Pain Receiving Guideline Adherent Physical Therapy. Evaluation & the Health Professions, 39(4), 421–434. |
↑19 | Rutten, G. M., Degen, S., Hendriks, E. J., Braspenning, J. C., Harting, J., & Oostendorp, R. A. (2010). Adherence to Clinical Practice Guidelines for Low Back Pain in Physical Therapy: Do Patients Benefit? Physical Therapy, 90(8), 1111–1122. |
↑20 | O’Connell, N. E., & Ward, S. P. (2018). Low Back Pain: What Have Clinical Guidelines Ever Done for Us? Journal of Orthopaedic & Sports Physical Therapy, 48(2), 54–57. |