Salud y Fármacos

Una organización internacional sin ánimo de lucro para fomentar el acceso y el uso adecuado de medicamentos entre la población hispano-parlante

ENSAYOS CLÍNICOS

Investigaciones

۞La medicina basada en la evidencia está en crisis porque la información patrocinada por la industria es incompleta y está sesgada. (How evidence-based medicine is failing due to biased trials and selective publication).
Every-Palmer S1, Howick J
J Eval Clin Pract 2014, May 12. doi: 10.1111/jep.12147
Traducido por Salud y Fármacos

La medicina basada en la evidencia (MBE) se define como el uso consciente y juicioso de la mejor evidencia para, teniendo en cuenta la experiencia clínica y los valores del paciente, tomar las decisiones terapéuticas [1,2].

Lo que podría constituir “mejor evidencia” se categoriza en niveles, como la escala producida por el Centro de Oxford para la MBE [3]. En la mayoría de los sistemas de clasificación, las revisiones sistemáticas de ensayos clínicos aleatorizados se colocan en el vértice de la pirámide y los razonamientos clínicos y las “opiniones de expertos” en la parte inferior. Es irónico que, aunque existen buenas razones para pensar en que la MBE debe beneficiar a la población, no hay evidencia empírica de “alta calidad” (de acuerdo a los estándares de MBE) de que efectivamente lo haga. En este sentido, poco ha cambiado desde que el “Users Guide to Evidence-Based Medicine” se publicó por primera vez en 1992:

“Nuestra defensa de la MBE ante la ausencia de pruebas definitivas sobre su superioridad en promover la salud del paciente puede parecer una contradicción interna. Cuando la evidencia definitiva no está disponible, se debe recurrir a pruebas más débiles… y a la racionalidad biológica. La racionalidad en este caso es que los médicos que leen críticamente la literatura están más actualizados distinguen entre evidencias fuertes y débiles y tienden a ser más juiciosos en la terapia que recomiendan… [y] hacen diagnósticos más precisos”[4].

Los autores llegaron a sugerir que “hasta que se aportasen pruebas más definitivas” el recurso a la MBE debería “restringirse” a tres grupos de profesionales: los que consideren que hay una justificación convincente, los que la utilicen para ensayos clínicos educativos y los que piensen que “la práctica de la medicina en el nuevo paradigma es más emocionante y divertida” [4]. El primer grupo era grande y en la década de 2000 el movimiento de la MBE ya se describía como una “revolución” [5,6] y en el 2001 la revista Time dijo que era una de las ideas contemporáneas más influyentes [7]. La carrera de la MBE hasta convertirse en el paradigma médico imperante puede considerarse como “meteórica” [8].

La MBE ha demostrado mejorar la práctica en áreas específicas. Por ejemplo, al tener mejor evidencia sobre la efectividad de los tratamientos, se ha mejorado la atención de pacientes que han sufrido un accidente cerebrovascular o un infarto de miocardio [9,10] y algunas prácticas nocivas se redujeron cuando los ensayos revelaron que los riesgos superan los beneficios (por ejemplo, la terapia de reemplazo hormonal después de la menopausia) [11,12]. Estos ejemplos son prometedores, pero anecdóticos. En otro ejemplo, un estudio que comparaba la capacidad de los médicos entrenados en MBE en la Universidad de McMaster con la de compañeros que recibieron la formación habitual se encontró que, a los cinco años de haberse graduado, los primeros conocían mejor las guías de la hipertensión [13].

Sin embargo, este resultado se refiere a una variable subrogada. ¿Cómo podemos saber que un mejor conocimiento de las guías se traduce en mejores resultados para los pacientes? ¿O que el tiempo empleado en el aprendizaje de la evaluación crítica ha impedido que otros temas importantes del currículo se discutieran? También podría ser que los graduados de McMaster sobresalieran en el tratamiento de la hipertensión pero tuvieran problemas de conocimiento sobre la meningitis pediátrica.

Si la MBE fuera ese aclamado movimiento revolucionario deberíamos tener evidencia de sus beneficios, más allá de unos casos específicos. Esperaríamos ver ganancias en el nivel de salud de la población semejantes a las que se produjeron después del descubrimiento de los antibióticos, la mejora de los sistemas de saneamiento o el abandono del tabaco [14]. Desafortunadamente, hay poca evidencia de que la MBE haya tenido tales efectos.

No es fácil que se realice un ensayo aleatorizado a nivel poblacional para responder a la pregunta sobre la efectividad de la MBE, porque se tendrían que superar una serie de retos metodológicos difíciles como el tamaño de la muestra, la contaminación, el cegamiento, el seguimiento y las medidas de resultado.

A nivel macro, tenemos evidencia de que el costo de la atención de la salud sigue aumentando [15], de que las mejoras a la salud están en fase de estancamiento (por ejemplo http://www.mortality-trends.org) y que la confianza en los profesionales médicos está disminuyendo [16]. Dado que la MBE privilegia el enfoque empírico sobre la opinión de expertos o el razonamiento mecanicista, resulta irónico que su aceptación generalizada se haya basado en la opinión de expertos y en razonamientos mecanicistas, en lugar de en “evidencia sólida” de que la MBE realmente funciona.

¿Han sido los ensayos clínicos financiados por la industria los que han perjudicado el desarrollo de la MBE?
Hay varias formas de explicar porque no hay datos que demuestren que la MBE se ha traducido en verdaderas mejoras en los cuidados de salud. Puede ser que nos estemos acercando a los límites de la medicina, de manera que las mejoras son cada vez más difíciles de conseguir. Desde este punto de vista, la fruta madura ya se habría recogido (como los notables triunfos sobre enfermedades infecciosas), y las restantes enfermedades crónicas complejas (como la enfermedad mental, la diabetes, enfermedades del corazón, el cáncer o el Alzheimer) son simplemente más difíciles de abordar. De ser este el caso, es difícil justificar el gasto de recursos en estrategias cuyos efectos no podemos medir.

Otra posibilidad es que la filosofía de la MBE tenga algún problema inherente que impida que su implementación se traduzca en beneficios para la salud. Esto sigue siendo posible, aunque uno de nosotros (JH) ha publicado una extensa defensa de la filosofía de la MBE [17] que aborda esta preocupación.

La hipótesis no exclusiva que exploraremos en detalle es que la falta de evidencia de que la MBE ha tenido un beneficio global se debe a que la MBE no se ha implementado de manera efectiva. En concreto, vamos a argumentar que un aspecto clave de la metodología MBE -el ensayo clínico aleatorizado- se ha visto con frecuencia corrompido por los intereses que intervienen en la elección de las hipótesis de los ensayos, su diseño e implementación y en la presentación selectiva de sus resultados. Vamos a apoyar nuestro argumento con ejemplos de psiquiatría, donde los problemas de corrupción de los ensayos aleatorios son dramáticos.

Ejemplos clínicos: ¿Prescripción de antipsicóticos y antidepresivos de acuerdo con la evidencia?
Los trastornos psicóticos, como la esquizofrenia, afectan a 24 millones de personas en todo el mundo [18] y son condiciones gravemente debilitantes. Los antipsicóticos son un gran negocio y en este momento, en EE UU, es la clase de medicamentos con mayor volumen de ventas. Su mercado internacional en el 2010 se estima que fue de US$19.600 millones [19].

La depresión es la tercera causa de discapacidad en todo el mundo [20]. El mercado mundial de los antidepresivos fue valorado en US$11.900 millones en 2011, con tasas de crecimiento anual del 1,7 %, que se prevé que continuarán en el futuro [21].

Estas son enfermedades importantes a las que se ha dedicado mucha investigación (y dinero) con el objetivo de desarrollar prácticas de manejo basadas en la evidencia. Vamos a considerar las perspectivas predominantes para el tratamiento de la psicosis y la depresión en la década de 1990 a 2000.

Psicosis. Hay dos categorías de medicamentos que se utilizan para el tratamiento de la psicosis: la primera generación de antipsicóticos o también llamados antipsicóticos “típicos” desarrollados en la década de 1960 (por ejemplo, la perfenazina, el haloperidol, la clorpromazina) y la segunda generación o antipsicóticos “atípicos” que se desarrolló en la década de los 90s (por ejemplo, la olanzapina, la quetiapina o la risperidona). Los antipsicóticos típicos son de bajo costo. A lo largo de la década de los 90s los antipsicóticos atípicos permanecieron bajo la protección de patentes y eran caros.

Tras la introducción de los antipsicóticos atípicos se publicaron muchos ensayos y revisiones de alta calidad que determinaron que eran mejor tolerados y más eficaces que sus predecesores. Tener “tratamientos efectivos” cambió la demografía de algunos diagnósticos. Al “probarse” que los atípicos eran eficaces para la enfermedad bipolar, las tasas de diagnóstico aumentaron dramáticamente, especialmente en niños. De hecho, el número de niños y adolescentes tratados para el trastorno bipolar en los EE UU aumentó 40 veces entre 1994 y 2000 [22].

En la práctica de uno de los autores (SE-P), a mediados de la década del 2000, todos los pacientes psicóticos recibían prescripciones con antipsicóticos atípicos. Aunque en ese momento los atípicos costaban aproximadamente US$4.000 más por paciente y año que los típicos [23], la “evidencia más robusta” justificaba esta diferencia de precio. Estábamos favoreciendo a los atípicos después de haber valorado la evidencia y las guías clínicas. Y no estábamos solos. Más del 90% de las prescripciones de antipsicóticos eran de atípicos [24].

Depresión. Los inhibidores de la recaptación de la serotonina (ISRS) también se desarrollaron en la época de la MBE. Antes de la llegada de los ISRS, los antidepresivos tricíclicos eran la base del tratamiento farmacológico para la depresión, pero durante la década de los 90s los ISRS, que son más caros, se comercializaron agresivamente como más seguros, eficaces y bien tolerados; y esto parecía venir respaldado por la evidencia. Pocos medicamentos se han utilizado en tantos ensayos clínicos de doble ciego, controlados con placebo, para demostrar su eficacia y conseguir el permiso de comercialización como los ISRS. Se han realizado más de mil ensayos aleatorios con antidepresivos [25] y repetidamente han mostrado aportar beneficios estadísticamente significativos. Esta enorme cantidad de evidencia tranquilizó a los médicos y a los pacientes, y los ISRS como el Prozac (fluoxetina) se convirtieron rápidamente en medicamentos superventas (blockbuster), suplantando a otros antidepresivos y tratamientos psicológicos (como la terapia cognitivo-conductual) más comúnmente recomendados para la depresión. Su uso se ha extendido tanto que uno de cada 10 estadounidenses mayores de 12 años toma antidepresivos, y son la clase de medicamentos más frecuentemente utilizada por los adultos jóvenes y de mediana edad [26].

¿Una historia de éxito clínico y una victoria de la MBE? Lo que hasta ahora hemos relatado sugiere que ha habido una mejora de los resultados en los pacientes y que la MBE es capaz de identificar tratamientos superiores para reemplazar alternativas menos eficaces. Sin embargo, la realidad es diferente. Diez años después de que los antipsicóticos atípicos hubieran saturado el mercado, grandes ensayos clínicos realizados por grupos independientes, conocidos por las siglas del CATIE (Clinical Antipsychotic Trials of Intervention Effectiveness), CUtLASS (Cost Utility of the Latest Antipsychotic Drugs in Schizophrenia Study) y EUFEST (European First Episode Study) han demostrado que los antipsicóticos atípicos no son ni más eficaces, ni están mejor tolerados y son mucho menos costo efectivos que sus predecesores [23, 27-29].

En relación a la depresión, meta-análisis independientes que incluyeron tanto datos publicados como inéditos, muestran que los ISRS no son más efectivos que el placebo en el tratamiento de la depresión leve a moderada, los problemas para los que han sido más comúnmente prescritos [30, 31].

Así que ¿Cómo es que durante más de una década hemos estado convencidos de que estos tratamientos eran superiores? ¿Cómo ha podido “construirse un mito a partir de la evidencia de mil ensayos clínicos aleatorios” [25] y ¿Cómo nos dejamos embaucar?

¿Qué salió mal con los ensayos aleatorios?
Parece que hay algo en la forma en que los ensayos clínicos aleatorios (ECAs) se realizan en el mundo real que ha socavado su fiabilidad. Exploraremos este tema preguntándonos:

  • ¿Quién financia los ensayos aleatorios? ¿Es importante saber quién lo hace?
  • ¿Cómo se seleccionan los ensayos aleatorios y qué preguntas se quieren responder?
  • ¿Qué ensayos se publican con más frecuencia?
  • ¿Cómo se identifican los estudios cuyas conclusiones se desacreditan?

1) ¿Quién financia los ensayos aleatorios? ¿Es importante saber quién lo hace? En primer lugar, está claro que la mayor parte de la evidencia médica existente ha sido financiada por la industria, aunque a menudo estas relaciones financieras no se han revelado. Entre dos tercios y tres cuartas partes de todos los ensayos aleatorios publicados en las principales revistas han sido financiados por la industria [32, 33].

En segundo lugar, existen pruebas contundentes de que los estudios financiados por la industria producen resultados que difieren de los estudios financiados por organismos independientes. Comparado con los ensayos financiados por organismos independientes, los ensayos patrocinados por la industria exageran los efectos positivos del tratamiento fabricado por su patrocinador [34-37].

La influencia de la industria ha sido generalizada en toda la medicina, y la psiquiatría ha estado en el epicentro de gran parte de la controversia sobre el sesgo de la fuente de financiación y el conflicto de intereses (por ejemplo, [38-40]). Entre los estudios aleatorizados, doble ciego, controlados con placebo publicados en las revistas psiquiátricas, las que informaron de conflictos de interés fueron cinco veces más propensas a mostrar resultados positivos [33].

Heres et al. revisaron los ensayos clínicos financiados por la industria que comparaban la eficacia de antipsicóticos atípicos para determinar si existía una relación entre el patrocinador y el resultado del estudio [41]. Y así fue, el 90% de los ensayos mostraron la superioridad del fármaco del patrocinador. La circularidad resultante se refleja en el título del estudio “¿Por qué es mejor la olanzapina que la risperidona, la risperidona que la quetiapina y la quetiapina que la olanzapina?”, en los ensayos que compararon las mismas drogas, el medicamento fabricado por el patrocinador casi siempre resulto ser superior. Este resultado, no plausible, no se debe a un sesgo de publicación. Los estudios habían sido diseñados de forma que prácticamente se garantizara que el fármaco del patrocinador sería el “ganador”, por ejemplo, porque la dosis del fármaco de comparación era demasiado baja para ser efectiva o al contrario, la dosis era tan alta que produciría efectos secundarios intolerables. La exclusión o la inclusión de pacientes específicos, los periodos de tratamiento con placebo, un corto periodo de seguimiento, la selección de las técnicas de imputación, el uso (o no) de ajustes y la producción de informes parciales de resultados son técnicas que se utilizan para magnificar la estimación del tamaño del efecto. Smith [42] resume algunos de estos efectos en el cuadro 1.

Otra información de cómo se sesgan los datos proviene de los juicios contra las empresas farmacéuticas. En 2012 GlaxoSmithKline (GSK) recibió una multa récord de US$3.000 millones por varios delitos penales y civiles, incluyendo la promoción ilegal de medicamentos, el no informar sobre datos de seguridad y por diseminar información falsa [43]. Esto incluye la creación de “artículos deliberadamente sesgados” que afirmaban falsamente que la paroxetina (un ISRS) era eficaz en menos de 18 segundos y la no divulgación de los ensayos con resultados negativos. De hecho no había evidencia de que la paroxetina fuese eficaz en los adolescentes y sí de que acarreaba un pequeño pero real riesgo de suicidio [44]. GSK también fue acusado de crear “consejos de asesores falsos y programas de formación médica continuada supuestamente independientes” [45].

Cuadro 1. Ejemplos de los métodos que utiliza la industria farmacéutica para obtener los resultados que quiere de los ensayos clínicos, Smith 2005 [42]

  • Realizar el ensayo clínico contra un medicamento que se sabe que es inferior
  • Realizar el ensayo utilizando dosis bajas del medicamento comparador.
  • Realizar el ensayo utilizando una dosis muy alta del medicamento comparador (para que su producto aparente ser menos tóxico).
  • Realizar ensayos clínicos con muestras demasiado pequeñas para mostrar diferencias con los medicamentos de la competencia.
  • Utilizar múltiples medidas de impacto y seleccionar las que obtienen buenos resultados para sus publicaciones.
  • Realizar ensayos multicéntricos y seleccionar los resultados de los centros que aportan resultados favorables para sus publicaciones.
  • Realizar estudios de subgrupo y seleccionar los que tengan resultados favorables para sus publicaciones.
  • Presentar los resultados de la forma que más impresionen, por ejemplo mostrando una reducción del riesgo relativo en lugar de riesgo absoluto.

El caso de GSK no es atípico. Johnson & Johnson, fabricante de los antipsicóticos atípicos risperidona y paliperidona, se ha declarado culpable de crimen menor por la propaganda de la risperidona [46]. La empresa recibió US$2.200 millones en multas civiles y penales en el año 2013 y US$1.200 millones en 2012 por prácticas engañosas, incluyendo ocultación de riesgos y exageración de beneficios [45, 47]. En el año 2009, Eli Lilly, pagó un acuerdo extrajudicial de US$1.400 millones por comercialización ilegal y por ocultar los riesgos de la olanzapina. En el año 2010 AstraZeneca pagó US$520.000.000 para resolver acusaciones en relación con la comercialización ilegal de la quetiapina (también un atípico) y por ocultar sus efectos adversos. Los documentos que se publicaron a raíz del juicio proporcionan información interesante. Los correos electrónicos muestran como un alto ejecutivo de la empresa hablaba sobre las estrategias que podrían dar “un giro positivo en este estudio maldito”. “Lisa [médico de la compañía] ha conseguido esconder la verdad” dice con aprobación. “Hasta ahora, hemos enterrado los ensayos 15, 31 y 56″, escribió un gerente de publicaciones. “El problema más grande es cómo nos enfrentaremos al mundo exterior cuando empiecen a criticarnos por ocultar datos” [48].

2) ¿Cómo se seleccionan los ensayos aleatorios y qué preguntas se quieren responder? Al igual que cuando se presentan resultados sesgados, la selección del tratamiento que se va a testar y las preguntas que se intentan responder vienen determinadas por lo que probablemente será rentable y lo que beneficiará más a los pacientes. El problema es que a veces lo que es mejor para los pacientes va en contra de lo que es económicamente más rentable.

Aunque el número de ensayos aleatorios está aumentando exponencialmente, la cantidad de evidencia disponible sobre una intervención o práctica tiende a estar mejor correlacionada con el interés comercial que con la importancia clínica de la intervención. Es decir, los ensayos aleatorios son caros, por lo que los estudios financiados por la industria se centran en los tratamientos potencialmente más lucrativos [49], como los medicamentos nuevos, los protegidos por patente, los de alto costo o los medicamentos considerados con gran potencial comercial. En comparación con el gran número de ensayos clínicos de tratamientos farmacológicos (patentables) para la depresión, ha habido muy pocos ensayos clínicos sobre el papel del ejercicio físico en la depresión, una intervención que según una revisión Cochrane podría tener una eficacia equivalente al tratamiento farmacológico convencional [50]. Hasta qué punto el ejercicio es útil para tratar la depresión es una pregunta de gran relevancia clínica pero no tiene valor comercial, porque el ejercicio no puede ser patentado.

Por el contrario, muchas preguntas clínicamente sin importancia (o preguntas suficientemente estudiadas) se estudian hasta la saciedad mientras que las cuestiones importantes se descuidan. Por ejemplo, miles de ensayos aleatorios comparan la eficacia de antipsicóticos similares y ninguno investiga tratamientos efectivos para el estreñimiento que causan los antipsicóticos, un efecto adverso angustiante que ocurre hasta en el 60 % de los pacientes tratados con estos medicamentos y que puede llevar a la muerte por obstrucción intestinal [51].

3) ¿Qué ensayos se publican con mayor frecuencia? Las compañías farmacéuticas tienen un incentivo natural para promover los resultados favorables de sus productos y minimizar los desfavorables. En la década de los 90s, un empleado de Wyeth borró archivos de la computadora eliminando la evidencia de que el fen-phen causaba enfermedad valvular cardíaca [52]. Un acercamiento más cauteloso (y popular) es simplemente no publicar este tipo de resultados.

La publicación selectiva de los resultados positivos y la no publicación de los resultados negativos se conoce como sesgo de publicación. La mejor estimación que tenemos es que la mitad de los ensayos clínicos que se finalizan nunca se publican en revistas académicas, y algunos de estos ensayos ni siquiera han sido registrados [53]. El sesgo de publicación existe tanto para los ensayos de la industria como para los que no están patrocinados por la industria, y afecta a los ensayos de cualquier tamaño [54]. Esto distorsiona significativamente la evidencia.

Centrándose específicamente en los antidepresivos, Turner et al. intentaron responder a la pregunta “¿Con qué precisión la literatura informa a la comunidad médica sobre la eficacia de un tratamiento?” [55]. Examinaron todos los ensayos con antidepresivos completados y registrados en la FDA (n = 74) y utilizaron la ley de libertad de información (Freedom of Information Act) para obtener la información completa de resultados, porque una tercera parte de los estudios no se habían publicado. En 38 ensayos, el antidepresivo estudiado fue más eficaz que el comparador (placebo u otro tratamiento activo). Vamos a catalogar a estos 38 ensayos como “positivos”. Otros 36 ensayos fueron “negativos”, es decir los antidepresivos estudiados no fueron más efectivos. Luego los investigadores examinaron el destino de estos ensayos. El que los ensayos fueran positivos o negativos se relacionaba fuertemente con la probabilidad de su publicación. Treinta y siete de los 38 ensayos con resultados positivos fueron publicados. Sin embargo, de los estudios negativos sólo tres fueron publicados adecuadamente. Veintidós no fueron publicados en absoluto y 11 fueron publicados en forma distorsionada, falsamente transmitiendo un resultado positivo. Esto se representa en la figura 1.


Ensayos positivos - negativos
Figura 1.

En resumen, en los artículos que el prescriptor puede acceder, el 94 % de los ensayos con antidepresivos muestran resultados positivos. Sin embargo, en la realidad sólo el 51 % de los ensayos registrados en la base de datos de la FDA fueron positivos, lo que resulta en una sobreestimación del tamaño del efecto de 32% [54].

Este es el único estudio sobre el que presentamos información detallada, por lo que se nos puede acusar de haber seleccionado un ejemplo excepcional para apoyar nuestra tesis, lo que nos convertiría en culpables de exactamente el mismo sesgo que estamos atacando. Sin embargo, este no es el caso. Hay una gran cantidad de evidencia, incluyendo varias revisiones sistemáticas, que muestran una fuerte evidencia de sesgo de publicación [36, 52, 56, 57]. Tres revisiones sistemáticas que examinan todos los estudios publicados – una tarea muy ambiciosa – encontraron que los estudios financiados por la industria presentaban resultados positivos con entre dos y cuatro veces mayor frecuencia que los estudios patrocinados por organismos independientes [36, 52, 55].

Aunque la MBE condena el sesgo de publicación y se esfuerza para identificarlo, no se puede hacer de forma muy precisa. Hay numerosos métodos disponibles pero ninguno puede identificar o descartar el sesgo de selección en su totalidad [54, 58-61]. Estos métodos (como los gráficos en embudo) se utilizan al hacer revisiones sistemáticas. También se trazan los resultados de todos los estudios disponibles y se utilizan modelos estadísticos para detectar lagunas. Estas técnicas son útiles, pero se asemejan a las ambulancias parcialmente equipadas esperando en el fondo de un precipicio.

4) ¿Cómo se identifican los estudios cuyas conclusiones se desacreditan? La evidencia defectuosa persiste. Los ensayos aleatorios sesgados no se etiquetan claramente como tales cuando se desacreditan. Una vez que los documentos entran en la literatura electrónica allí permanecen. No hay bibliotecarios cyber vigilantes que estampen un sello de “desacreditado” sobre ellos si son refutados con posterioridad, y pueden continuar induciendo a error. Si un médico hace una búsqueda por palabras clave, el ensayo aleatorio desacreditado puede ser el primero en aparecer sin que se identifiquen sus defectos. Incluso los críticos informados pueden ser engañados. Por ejemplo, Tatsioni et al. encontraron que el 50 % de las opiniones académicas seguían basándose en un ensayo clínico desacreditado que apoyaba un tratamiento (vitamina E para la enfermedad cardiaca) cinco años después de haber sido convincentemente demostrado que la terapia era ineficaz [62].

Discusión
Contando sus propios votos. La evidencia que hemos presentado indica que los ensayos deberían realizarse por organismos independientes.

El sentido común sugiere lo mismo. Imagínese si el gobierno propusiera la disolución de la comisión electoral para permitir que los propios políticos contaran sus propios votos. No sería aceptable por varias razones. Los políticos no son objetivos. Ellos han invertido tiempo y dinero en la campaña. Ellos creen en su partido. Ellos quieren ganar. El político menos honesto podría fabricar resultados. El más honesto podría abordar la tarea con sinceridad, pero ser influenciado subconscientemente y basándose en las anotaciones evaluar las papeletas incompletas como válidas. Por estas razones válidas, los resultados no serían aceptados, por lo que sería una pérdida de tiempo y dinero. Si este es el caso ¿Por qué se acepta el “el recuento de votos” que hace la industria sobre la eficacia de sus propios productos? Y no necesitamos un experimento mental para explorar si los resultados podrían estar sesgados. Experimentos reales ya lo han demostrado en repetidas ocasiones.

El autofinanciamiento como falso ahorro. Se podría objetar señalando que los ensayos aleatorios son muy caros. Se podría haber llegado a pensar que los ensayos aleatorios financiados por la industria representaban una feliz coincidencia entre los intereses comerciales y el bien público. Sin embargo, esto ha sido un falso ahorro. No sólo los costos de investigación efectuados por la industria se han recuperado a través de la financiación pública [63] sino que la evidencia resultante no es ni sólida ni confiable. Por otra parte, ya que los pacientes terminan pagando por los tratamientos (ya sea a través de impuestos, pólizas de seguros o de su bolsillo), el método menos sesgado para la evaluación de los tratamientos debería ser el que más le interesara. Ciertamente, lo que hemos escrito aquí sugiere que, a largo plazo, los pacientes se ahorrarían dinero si los ensayos fueran independientes.

La industria no es la única sesgada. Uno podría argumentar que es injusto condenar a la industria por ser parcial cuando todos los seres humanos tienen prejuicios. Sería ingenuo pensar que los ensayos financiados con fondos públicos estarían libres de prejuicios. Este argumento es totalmente válido y cuando se presenta evidencia acerca de otros sesgos debemos ser conscientes de ello, pero no es una excusa válida para justificar la falta de respuesta a los grandes sesgos de los ensayos financiados por la industria que conocemos en la actualidad.

¿Si tuviéramos mejor evidencia, tendríamos mejor información sobre la efectividad de la MBE? Nuestro argumento en relación con el desempeño de la MBE no es un argumento “de principios” sino contingente. Nuestra creencia es que si tuviéramos ensayos aleatorios imparciales tendríamos una mejor base de evidencia que, de aplicarse, debería dar lugar a beneficios para la salud tangibles y medibles. Aunque se trata de una cuestión especulativa (es posible que incluso con evidencia del todo imparcial, la MBE no se tradujera en beneficios demostrables para la población), es una hipótesis que vale la pena explorar. Abajo ofrecemos posibles soluciones a la naturaleza sesgada de los ensayos aleatorios financiados por la industria.

Hacia una solución. Hay mucha polémica sobre los problemas de las grandes farmacéuticas y se pide que haya mejor rendición de cuentas y regulación del sector. Apoyamos estos enfoques, pero los consideramos insuficientes. Es ingenuo pensar que podemos evitar que los intereses creados introduzcan sesgos. Los políticos no pueden contabilizar sus votos y en el deporte hay que depender de los árbitros, no pueden ser los jugadores los que se encarguen de poner las sanciones. ¿En qué estábamos pensando al asumir que la industria sería capaz de proporcionar evidencia sobre las intervenciones de salud que han desarrollado, en las que creen y de las que quieren beneficiarse? Tenemos que reconocer este sesgo inherente y tomar medidas contra él.

Está más allá del alcance de este artículo discutir soluciones prácticas con gran detalle, sin embargo, hacemos las siguientes sugerencias:

  1. Hay que apoyar a la campaña para formalizar y reforzar las medidas que aseguren el registro y la publicación de todos los ensayos clínicos (ver www.alltrials.net) porque en caso contrario los ensayos que no respondan a los intereses de la industria seguirán quedando inéditos.
  2. Se requiere más inversión en la investigación independiente. Como hemos descrito, financiar indirectamente la investigación de la industria a través de los altos costos de los medicamentos protegidos por patente es un falso ahorro.
  3. Organismos independientes, informados democráticamente, deberían ser los que establecieran las prioridades de investigación.
  4. Las personas y las instituciones que lleven a cabo los estudios independientes deberían ser recompensados por la calidad metodológica de los estudios y no en función de si consiguen un resultado positivo (desde el punto de vista científico, un estudio “negativo” es tan valioso como uno “positivo”).
  5. Los instrumentos de evaluación de sesgos, como la herramienta Cochrane [64], deberían modificarse para incluir la fuente de financiación como un ítem independiente.
  6. Los esquemas de categorización de la evidencia deberían modificarse para considerar el sesgo sistemático de los estudios financiados por la industria. Existen mecanismos para ampliar o rebajar la calidad de la evidencia según el riesgo de sesgo. Por ejemplo, el sistema GRADE permite dar más valor a la evidencia observacional que muestra efectos grandes y degradar la información de los ensayos aleatorios cuando no se oculta adecuadamente la asignación (y varios otros factores) [65]. Sin embargo, en este momento, estos esquemas no tienen en cuenta el origen de la evidencia y no reconocen expresamente el elevado riesgo de sesgo cuando los que producen la evidencia tienen interés comercial en los resultados. Sería fácil introducir un elemento para modificar la calidad de la evidencia según el nivel del conflicto de interés que el patrocinador del estudio pueda tener con el resultado. Si hay conflicto de interés, la calidad de la evidencia debería ser rebajada. Esto es algo que hay que hacer para que la valoración crítica de la MBE siga siendo creíble, dado el fracaso de los rankings de la calidad de la evidencia que se utilizan ahora para detectar y descartar el sesgo de financiación de la industria.

Las cuatro primeras propuestas no son nuevas. Sin embargo, modificar formalmente los sistemas de ranking de la evidencia rebajando de manera explícita la investigación con el sesgo del conflicto de interés no parece haber sido previamente examinado por el movimiento de la MBE. Esto sería un paso sencillo y fácil de implementar que puede facilitar la transición de la MBE “per se” a una situación en la que no toda la evidencia tenga la misma credibilidad y donde se reconozca que el sesgo de financiación es persuasivo y causa errores.

Conclusión
Hemos demostrado que los ensayos desfavorables se quedan con frecuencia sin publicar y no están disponibles para los médicos y pacientes. A través de los procesos de publicación selectiva y la manipulación del diseño del estudio, los estudios patrocinados por la industria tienden a ser favorables a sus productos. En pocas palabras, la evidencia patrocinada por la industria es incompleta y está sesgada. La mayoría de los estudios de intervención son patrocinados por la industria. Esto significa que la evidencia de muchas intervenciones es incompleta y está sesgada. Como resultado, los pacientes pueden recibir tratamientos menos eficaces, perjudiciales o más caros. Hemos propuesto algunas soluciones, incluyendo que el movimiento MBE rebaje explícitamente la calidad de toda la investigación producida por los que tienen un interés particular en los resultados.

Referencias

  1. Sackett, D. L., Rosenberg, W. M., Gray, J. A., Haynes, R. B. & Richardson, W. S. (1996) Evidence based medicine: what it is and what it isn’t. British Medical Journal, 312 (7023), 71–72.
  2. Straus, S. E., Glasziou, P., Richardson, W. S. & Haynes, R. B. (2011) Evidence-Based Medicine: How to Practice and Teach EBM. Edin-burgh: Churchill Livingstone.
  3. OCEBM Levels of Evidence Working Group (2001) The Oxford Levels of Evidence 2. Oxford Centre for Evidence-Based Medicine. http://www.cebm.net/index.aspx?o=5653 (17 February 2014).
  4. Evidence Based Medicine Working Group (1992) Evidence-based medicine. A new approach to teaching the practice of medicine. Journal of the American Medical Association, 268, 2420–2425.
  5. Manser, R. & Walters, E. H. (2001) What is evidence-based medicine and the role of the systematic review: the revolution coming your way. Monaldi Archives for Chest Disease, 56 (1), 33–38.
  6. New York Times. (2001) The Year in Ideas. Available at http://www.nytimes.com/2001/12/09/magazine/the-year-in-ideas-a-to -z-distroboto.html (last accessed 17 February 2014).
  7. Haynes, R. B. (2002) What kind of evidence is it that evidence-based medicine advocates want health care providers and consumers to pay attention to? BMC Health Services Research, 2 (1), 3.
  8. Zimerman, A. L. (2013) Evidence-based medicine: a short history of a modern medical movement. The Virtual Mentor, 15 (1), 71–76.
  9. Krumholz, H. M., Radford, M. J., Wang, Y., Chen, J., Heiat, A. & Marciniak, T. A. (1998) National use and effectiveness of beta-blockers for the treatment of elderly patients after acute myocardial infarction: National Cooperative Cardiovascular Project. Journal of the American Medical Association, 280, 623–629.
  10. Mitchell,J.B.,Ballard,D.J.,Whisnant,J.P.,Ammering,C.J.,Samsa, G. P. & Matchar, D. B. (1996) What role do neurologists play in determining the costs and outcomes of stroke patients? Stroke, 27, 1937–1943.
  11. Lacchetti,C.,Ioannidis,J.P.& Guyatt,G.H.(2002)Surprising results of randomized, controlled trials. In The Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice (eds G. Guyatt & D. Rennie), pp. 247–265. Chicago, IL: AMA Publications. Nelson, H. D., Humphrey, L. L., Nygren, P., Teutsch, S. M. & Allan, J. D. (2002)
  12. Postmenopausal hormone replacement therapy. Journal of the American Medical Association, 288 (7), 872–881.
  13. Shin, J. & Haynes, R. B. (1991) Does a problem-based, self-directed undergraduate medical curriculum promote continuing clinical competence? Clinical Research, 39, 143A.
  14. Le Fanu, J. (1999) The Rise and Fall of Modern Medicine. New York: Little Brown.
  15. Feldstein, P. J. (2011) Health Care Economics, 7th edn. Albany, New York: Delmar.
  16. European Trusted Brands Survey (2013). The brands you trust Avail-able at: http://panorama-magazine.ch/_wpSafe/assets/_downloads/ ETB-2013-Guide.pdf (last accessed 30 April 2014).
  17. Howick, J. H. (2002) The Philosophy of Evidence-Based Medicine. Oxford: Wiley-Blackwell.
  18. World Health Organisation (2014) Schizophrenia. Available at: http://www.who.int/mental_health/management/schizophrenia/en/ (17 February 2014).
  19. BCC Research. (2010) Antipsychotic drugs: technologies and global markets. Report code: PHM063A. Available at: http://www .bccresearch.com/report/PHM063A.html (last accessed 17 February 2014).
  20. World Health Organization. (2012) Global burden of mental disorders and the need for a comprehensive, coordinated response from health and social sectors at the country level. Document EB130. R, 8. Available at: http://apps.who.int/gb/ebwha/pdf_files/WHA65/A65 _10-en.pdf (17 February 2014).
  21. CBI Research. (2012). Antidepressants Market to 2018 – Despite Safety Concerns, Selective Serotonin Re-uptake Inhibitors (SSRIs) Continue to Dominate in the Absence of Effective Therapeutic Alternatives. Available at: http://www.gbiresearch.com/Report.aspx?ID=Antidepressants-Market-to-2018-Despite-Safety-Concerns-Selective-Serotonin-Re-uptake-Inhibitors-(SSRIs)-Continue-to-Dominate-in-the-Absence-of-Effective-Therapeutic-Alternatives (last accessed 17 February 2014).
  22. Sahling, D. L. (2009) Pediatric bipolar disorder: underdiagnosed or fiction? Ethical Human Psychology and Psychiatry, 11 (3), 215–228.
  23. Rosenheck, R. A., Leslie, D. L., Sindelar, J., et al. (2006) Cost-effectiveness of second generation antipsychotics and perphenazine in a randomized trial of treatment for chronic schizophrenia. American Journal of Psychiatry, 163 (12), 20089.
  24. National Institute of Health (2006) Comparing drugs for schizophrenia. Available at: http://www.nih.gov/researchmatters/december2006/12112006drugs.htm (last accessed 17 February 2014).
  25. Ioannidis, J. P. (2008) Effectiveness of antidepressants: an evidence myth constructed from a thousand randomized trials? Philosophy, Ethics and Humanities in Medicine, 3, 14.
  26. Pratt, L. A., Brody, D. J. & Gu, Q. (2011) Antidepressant Use in Persons Aged 12 and Over: United States, 2005–2008. NCHS Data Brief, No. 76. Hyattsville, MD: National Center for Health Statistics.
  27. Lieberman, J. A., Stroup, S., McEvoy, J. P., et al. (2005) Effectiveness of antipsychotic drugs in patients with chronic schizophrenia. New England Journal of Medicine, 353, 1209–1223.
  28. Jones, P. B., Barnes, T. R., Davies, L., Dunn, G., Lloyd, H., Hayhurst, K. P., Murray, R. M., Markwick, A. & Lewis, S. W. (2006) Randomized controlled trial of the effect on quality of life of second- versus first-generation antipsychotic drugs in schizophrenia: Cost Utility of the Latest Antipsychotic Drugs in Schizophrenia Study (CUtLASS 1). Archives of General Psychiatry, 63 (10), 1079–1087.
  29. Kahn, R. S., Fleischhacker, W. W., Boter, H., et al. (2008) Effectiveness of antipsychotic drugs in first-episode schizophrenia and schizophreniform disorder: an open randomised clinical trial. The Lancet, 371 (9618), 1085–1097.
  30. Fournier, J. C., DeRubeis, R. J., Hollon, S. D., Dimidjian, S., Amsterdam, J. D., Shelton, R. C. & Fawcett, J. (2010) Antidepressant drug effects and depression severity: a patient level meta-analysis. Journal of the American Medical Association, 303, 47–53.
  31. Kirsch, I., Deacon, B. J., Huedo-Medina, T. B., Scoboria, A., Moore, T. J. & Johnson, B. T. (2008) Initial severity and antidepressant benefits: a meta-analysis of data submitted to the food and drug administration. PLoS Medicine, 5, e45.
  32. Egger, M., Bartlett, C. & Jüni, P. (2001) Are randomised controlled trials in the BMJ different? British Medical Journal, 323, 1253–1254.
  33. Perlis, R. H., Perlis, C. S., Wu, Y., Hwang, C., Joseph, M. & Nierenberg, A. A. (2005) Industry sponsorship and financial conflict of interest in the reporting of clinical trials in psychiatry. American Journal of Psychiatry, 162, 1957–1960.
  34. Jorgensen, A. W., Hilden, J. & Gøtzsche, P. C. (2006) Cochrane reviews compared with industry supported meta-analyses and other meta-analyses of the same drugs: systematic review. British Medical Journal, 333, 782.
  35. Leopold, S. S., Warme, W. J., Fritz, B. E. & Shott, S. (2003) Association between funding source and study outcome in orthopaedic research. Clinical Orthopaedics and Related Research, 415, 293–301.
  36. Lexchin, J., Bero, L. A., Djulbegovic, B. & Clark, O. (2003) Pharmaceutical industry sponsorship and research outcome and quality: systematic review. British Medical Journal, 326, 1167–1170.
  37. Yaphe, J., Edman, R., Knishkowy, B. & Herman, J. (2001) The association between funding by commercial interests and study outcome in randomized controlled drug trials. Family Practice, 18, 565–568.
  38. Lacasse, J. R. & Leo, J. (2010) Ghostwriting at elite academic medical centers in the United States. PLoS Medicine, 7, e1000230.
  39. Roehr, B. (2011) Professor files complaint of scientific misconduct over allegation of ghostwriting. British Medical Journal, 343, d4458.
  40. Chimonas, S., Stahl, F. & Rothman, D. J. (2012) Exposing conflict of interest in psychiatry: does transparency matter? International Journal of Law and Psychiatry, 35, 490–495.
  41. Heres, S., Davis, J., Maino, K., Jetzinger, E., Kissling, W. & Leucht, S. (2006) Why olanzapine beats risperidone, risperidone beats quetiapine, and quetiapine beats olanzapine: an exploratory analysis of head-to-head comparison studies of second-generation antipsychotics. American Journal of Psychiatry, 163, 185–194.
  42. Smith, R. (2005) Medical journals are an extension of the marketing arm of pharmaceutical companies. PLoS Medicine, 2 (5), e138.
  43. Roehr, B. (2012) GlaxoSmithKline is fined record $3 billion in US. British Medical Journal, 345, e4568.
  44. Lenzer, J. (2006) Manufacturer admits increase in suicidal behaviour in patients taking paroxetine. British Medical Journal, 332 (7551), 1175.
  45. Department of Justice (2012) GlaxoSmithKline to plead guilty and pay $3 billion to resolve fraud allegations and failure to report safety data. 2 July. Available at: http://www.justice.gov/opa/pr/2012/July/12-civ-842.html (last accessed 17 February 2014).
  46. Kmietowicz, Z. (2012) Johnson & Johnson to pay $2.2 bn to settle charges of false marketing on three drugs. British Medical Journal, 347, f6696.
  47. Tanne, J. H. (2012) US judge fines Johnson & Johnson $1.1 bn for misleading marketing of risperidone. British Medical Journal, 344, e2772.
  48. Elliot, C. (2010) White Coat, Black Hat: Adventures on the Dark Side of Medicine. Boston, MA: Beacon Press.
  49. Brown, J. R. (2008) Politics, method, and medical research. Philoso-phy of Science, 75 (5), 756–766.
  50. Cooney, G. M., Dwan, K., Greig, C. A., Lawlor, D. A., Rimer, J., Waugh, F. R., McCurdo, M. & Mead, G. E. (2013) Exercise for depression. Cochrane Database of Systematic Reviews, (9), CD004366.
  51. Palmer, S. E., McLean, R. M., Ellis, P. M., Harrison-Woolrych, M. (2008) Life-threatening clozapine-induced gastrointestinal hypo-motility: an analysis of 102 cases. Journal of Clinical Psychiatry, 69 (5), 759–768.
  52. Zuckerman, D. (2003) Hype in health reporting: ‘checkbook science’ buys distortion of medical news. International Journal of Health Ser-vices, 33 (2), 383–389.
  53. Song, F., Parekh, S., Hooper, L., et al. (2010) Dissemination and publication of research findings: an updated review of related biases. Health Technology Assessment, 14 (8), iii, ix–xi, 1–193. Avail-able at: http://www.hta.ac.uk/fullmono/mon1408.pdf (last accessed 17 February 2014).
  54. Ross, J. S., Mulvey, G. K., Hines, E. M., Nissen, S. E. & Krumholz, H. M. (2009) Trial publication after registration in clinicaltrials.gov: a cross-sectional analysis. PLoS Medicine, 6 (9), e1000144.
  55. Turner, E. H., Matthews, A. M., Linardatos, E., Tell, R. A. & Rosenthal, R. (2008) Selective publication of antidepressant trials and its influence on apparent efficacy. New England Journal of Medicine, 358 (3), 252–260.
  56. Bekelman, J. E., Li, Y. & Gross, P. (2003) Scope and impact of financial conflicts of interest in biomedical research. Journal of the American Medical Association, 289 (4), 454–465.
  57. Dwan, K., Altman, D. G., Arnaiz, J., et al. (2008) Systematic review of the empirical evidence of study publication bias and outcome reporting bias. PLoS ONE, 3 (8), e3081.
  58. Sterne, J. A., Gavaghan, D. & Egger, M. (2000) Publication and related bias in meta-analysis: power of statistical tests and prevalence in the literature. Journal of Clinical Epidemiology, 53 (11), 1119– 1129.
  59. Hayashino, Y., Noguchi, Y. & Fukui, T. (2005) Systematic evaluation and comparison of statistical tests for publication bias. Journal of Epidemiology, 15 (6), 235–243.
  60. Lau, J., Ioannidis, J. P., Terrin, N., Schmid, C. H. & Olkin, I. (2006) Evidence based medicine: the case of the misleading funnel plot. British Medical Journal, 333 (7568), 597–600.
  61. Ioannidis, J. P. & Trikalinos, T. A. (2007) The appropriateness of asymmetry tests for publication bias in meta-analyses: a large survey. Canadian Medical Association Journal, 176 (8), 1091–1096.
  62. Tatsioni, A., Bonitsis, N. G. & Ioannidis, J. P. (2007) Persistence of contradicted claims in the literature. Journal of the American Medical Association, 298 (21), 2517–2526.
  63. Goldacre, B. (2012) Bad Pharma: How Drug Companies Mislead Doctors and Harm Patients. London: Fourth Estate.
  64. Higgins, J. P. T., Altman, D. G. & Sterne, J. A. C. (eds) (2011) Assessing risk of bias in included studies. In Cochrane Handbook for Systematic Reviews of Interventions Version 5.I.0 [updated March 2011] The Cochrane Collection. (eds. Higgins, J. P. T. & S. Green). Available from Handbook cochrane-org (last accessed 17 February 2014).
  65. Guyatt, G. H., Oxman, A. D., Vist, G., Kunz, R., Falck-Ytter, Y., Alonso-Coello, P. & Schünemann, H. J.; GRADE Working Group (2008) GRADE: an emerging consensus on rating quality of evidence and strength of recommendations. British Medical Journal, 336, 924– 926
creado el 12 de Septiembre de 2017


Subscripción Gratuita
Cómo Ayudar



Búsqueda


Término a buscar

Buscar frase exacta
+ Búsqueda avanzada
Buscar en

Desde

Hasta

Sección