image_pdfPulsa aquí para descargar en PDFimage_print

Captura de pantalla 2014-05-19 a la(s) 17.39.42

Por su interés traducimos el reciente artículo «How evidence-based medicine is failing due to biased trials and selective publication» (FALLO MBE) publicado en Journal of Evaluation of Clinical Practice y que nos llega vía Juan Gérvas

La falta de evidencias acerca de los beneficios de la MBE

La medicina basada en la evidencia (MBE ) se define como el uso consciente y juicioso de las mejores pruebas para guiar las decisiones de atención en salud considerando la experiencia clínica y los valores del paciente  [1,2].

La cuestión de lo que podría constituir «mejores pruebas» se categoriza en niveles de evidencia, como la producida por el Centro de Oxford para la Medicina Basada en la Evidencia [3]. Como la mayoría de los sistemas de clasificación, las revisiones sistemáticas de ensayos clínicos aleatorizados se colocan en el vértice de la pirámide y los razonamientos clínicos y las «opiniones expertas» en la parte inferior. Es irónico que aunque existen buenas razones para confiar en que la MBE debe beneficiar a la población, no hay evidencia empírica de «alta calidad» (de acuerdo a los estándares de EBM) de que efectivamente lo haga. En este sentido, poco ha cambiado desde que «Users Guide to Evidence-Based Medicine» fue publicado por primera vez en 1992:

«Nuestra defensa de la MBE ante la ausencia de pruebas definitivas de su superioridad en la mejora de los resultados del paciente puede parecer una contradicción interna . . . Cuando la evidencia definitiva no está disponible, se debe recurrir a pruebas más débiles . . . y a la racionalidad biológica. La racionalidad en este caso es que los médicos que están actualizados, tienen capacidad de leer críticamente la literatura y son capaces de distinguir entre evidencias fuetes y débiles tienden a ser más juiciosos en la terapia que ellos recomiendan. . . [y] a hacer diagnósticos más precisos» [4].

Los autores llegaron a sugerir que «hasta que se aportasen pruebas más definitivas’ el recurso a la MBE debería  «restringirse» a tres grupos de profesionales: los que encuentren una justificación convincente, los que la utilicen en ensayos clínicos educativos y los que piensen que «la práctica de la medicina en el nuevo paradigma es más emocionante y divertido» [4]. El primer grupo era grande y en la década de 2000 el movimiento de la MBE ya era descrito como una «revolución» [5,6 ] y aclamado por la revista Time en 2001 como una de las ideas contemporáneas más influyentes [7]. La carrera de la MBE hasta convertirse en el paradigma médico imperante puede considerarse realmente como «meteórica» [8]

La MBE ha demostrado mejorar la práctica en áreas específicas. Por ejemplo, en el accidente cerebrovascular y en el infarto de miocardio se ha mejorado la atención posterior a la luz de las nuevas pruebas [9,10] y algunas prácticas nocivas se han reducido cuando los ensayos revelaron los que los riesgos superan los beneficios (por ejemplo, la terapia de reemplazo hormonal después de la menopausia) [11,12]. Estos ejemplos son prometedores, pero anecdóticos. En otro ejemplo, un estudio que comparaba médicos graduados entrenados en MBE en la universidad de McMaster con compañeros con la formación habitual encontró que los primeros conocía mejor las guías de hipertensión al menos 5 años después de la graduación [13].

Sin embargo, este resultado se refiere a una variable subrogada. ¿Cómo podemos saber que un mejor conocimiento de las guías se traduce en mejores resultados para los pacientes? ¿O que el tiempo necesario para el aprendizaje de la evaluación crítica no ha sido desperdiciado? También podría ser que los graduados de McMaster sobresalieran en el tratamiento de la hipertensión pero tuvieran problemas de conocimiento sobre la meningitis pediátrica.

Si MBE fuera ese aclamado movimiento revolucionario deberíamos esperar que los beneficios demostrados no se restringieran a casos específicos. Tendríamos que esperar ganancias en el nivel de salud semejantes a las que se produjeron después de la introducción de los antibióticos, la mejora de los saneamientos o el abandono del tabaco [14]. Desafortunadamente, hay poca evidencia de que la MBE haya tenido tales efectos.

Cualquier ensayo aleatorizado poblacional que quiera responder a la pregunta acerca de la efectividad de la MBE es probable que chocase con retos metodológicos como el tamaño de la muestra, la contaminación, el cegamiento, el seguimiento o las medidas de resultado difíciles de superar.

Si que tenemos evidencias que sugieren que el costo de la atención de la salud sigue en aumento [15], que las mejoras están en una fase de meseta (por ejemplo http://www.mortality- trends.org ) y que la confianza en los profesionales médicos está disminuyendo [16]. Dado que la MBE favorece firmemente un enfoque empírico sobre la opinión de expertos o el razonamiento mecanicista es irónico que su aceptación generalizada se haya basado en la opinión de expertos y en razonamientos mecanicistas, en lugar de en «evidencias» de que la MBE realmente funciona.

¿Han sido los ensayos clínicos financiados por la industria los que han perjudicado el desarrollo de la MBE?

Hay una serie de posibles explicaciones para la ausencia de datos que sugieran que la MBE se ha traducido en verdaderas mejoras en todos los ámbitos de la asistencia sanitaria. Puede ser que nos estemos acercando a los límites de la medicina de manera que las mejoras son cada vez más difíciles de conseguir. Desde este punto de vista, la fruta madura ya se habría recogido (como los notables triunfos sobre enfermedades infecciosas) y las restantes enfermedades crónicas complejas son simplemente más difíciles de abordar (como la enfermedad mental, la diabetes, enfermedades del corazón, el cáncer o el Alzheimer). Si este es el caso, entonces el gasto de dinero en cualquier estrategia cuyos efectos no podemos medir es difícil de justificar.

Otra posibilidad es que haya algo inherentemente defectuoso en la filosofía de la MBE y que su aplicación no se traduzca en beneficios para la salud. Esto sigue siendo posible, aunque uno de nosotros (JH) ha publicado una extensa defensa de la filosofía de la MBE [17] que aborda esta preocupación.

La hipótesis no exclusiva que exploraremos en detalle es que la falta de evidencia de que la MBE ha tenido un beneficio global se debe a que la MBE no ha sido desarrollada de una manera efectiva. En concreto, vamos a argumentar que una piedra angular de la metodología MBE -el ensayo clínico aleatorizado- a menudo ha sido corrompido por los intereses creados que intervienen en la elección de las hipótesis de los ensayos así como por por los comportamientos y los informes sesgados de dichos ensayos. Vamos a apoyar nuestro argumento con ejemplos de la psiquiatría donde los problemas de corrupción de los ensayos aleatorios son dramáticos.

Ejemplos clínicos: ¿Prescripción de antipsicóticos y antidepresivos de acuerdo con la evidencia?

Los trastornos psicóticos como la esquizofrenia afecta a 24 millones de personas en todo el mundo [18] y son condiciones gravemente debilitantes. Los medicamentos antipsicóticos  son un gran negocio, actualmente, la clase de medicamentos con más volumen de ventas en los Estados Unidos. Su mercado internacional se estima en 19.6 mil millones de dólares en 2010 [19].

La depresión es la tercera causa de discapacidad en todo el mundo [20]. El mercado mundial de los antidepresivos fue valorado en 11.9 mil millones en 2011, con tasas de crecimiento anual del 1,7 % que se prevé continuará en el futuro [21].

Estas son enfermedades importantes a las que se ha dedicado mucha investigación (y dinero) con el objeto de desarrollar prácticas basadas en la evidencia para su manej. Vamos a considerar los puntos de vista predominantes para el tratamiento de la psicosis y la depresión en la década de 1990 a 2000.

Psicosis

Hay dos categorías de medicamentos utilizados para el tratamiento de la psicosis: la primera generación de antipsicóticos o también llamados antipsicóticos «típicos» desarrollados en la década de 1960 (por ejemplo, la perfenazina, el haloperidol, la clorpromazina) y la segunda generación o antipsicóticos «atípicos» que se desarrolló en la década de los 90 (por ejemplo, la olanzapina, la quetiapina o la risperidona). Los antipsicóticos típicos son de bajo costo. A lo largo de la década de los 90 los antipsicóticos atípicos permanecieron bajo la protección de patentes y eran caros.

Tras la introducción de los antipsicóticos atípicos, se publicaron muchos ensayos y revisiones de alta calidad que establecían que eran mejor tolerados y más eficaces que sus predecesores. Tener «tratamientos efectivos» cambió la demografía de algunos diagnósticos. Una vez que los atípicos fueron ‘probados’ como eficaces para la enfermedad bipolar, las tasas de diagnóstico aumentaron dramáticamente, especialmente en niños. De hecho, el número de niños y adolescentes tratados para el trastorno bipolar en los Estados Unidos aumentó 40 veces entre 1994 y 2000 [22].

En la práctica clínica de un autor (SE-P), a mediados de la década de 2000, todos los pacientes psicóticos tenían prescripciones con antipsicóticos atípicos. Aunque en ese momento los atípicos costaban aproximadamente 4.000 dólares más por paciente y año que los típicos [23], la «mejor evidencia» justificaba esta diferencia de precio. Al favorecer a los atípicos estábamos siguiendo lo que aportaban las mejores pruebas y guías clínicas. Y no estábamos solos. Más del 90 % de las prescripciones de antipsicóticos fueron para los atípicos [24].

Depresión

La clase de los inhibidores de la recaptación de la serotonina (ISRS) también se desarrolló en la época de la MBE. Antes de la llegada de los ISRS, los antidepresivos tricíclicos eran la base del tratamiento farmacológico para la depresión, pero durante la década de los 90 los ISRS más caros se comercializaron agresivamente como alternativas más seguras, eficaces y bien tolerados. Y esto parecía ser respaldado por la evidencia. Pocos medicamentos han tenido tantos ensayos clínicos doble ciego, controlados con placebo realizados para demostrar su eficacia y conseguir su aprobación legal como los ISRS. Se han realizado más de mil ensayos aleatorios con los antidepresivos [25] y los beneficios estadísticamente significativos habían sido repetidamente demostrados. Los médicos y los pacientes encontraron este enorme cuerpo de evidencia tranquilizador y ISRS como el Prozac (fluoxetina) se convirtieron rápidamente en medicamentos superventas (blockbuster), suplantando a otros antidepresivos y tratamientos psicológicos (como la terapia cognitivo-conductual) como el tratamiento más comúnmente recomendado para la depresión. Su uso se ha extendido tanto que 1 de cada 10 estadounidenses mayores de 12 años toman antidepresivos y son la medicación más frecuentemente utilizada por los adultos jóvenes y de mediana edad [26].

¿Una historia de éxito clínico y una victoria de la MBE?

La historia que hemos relatado hasta ahora sugiere la mejora de los resultados en los pacientes y la capacidad de la MBE para identificar tratamientos superiores que reemplacen alternativas menos eficaces. Sin embargo, la realidad es diferente. Diez años después de que los antipsicóticos atípicos hubieran saturado el mercado, los grandes ensayos independientes, conocidos por las siglas del CATIE (Clinical Antipsychotic Trials of Intervention Effectiveness), CUtLASS (Cost Utility of the Latest Antipsychotic Drugs in Schizophrenia Study) y EUFEST (European First Episode Study) han demostrado que los antipsicoticos atípicos no son, de hecho, más eficaces, ni mejor tolerados y mucho menos costo efectivos que sus predecesores típicos [23, 27-29].

En relación con la depresión, meta- análisis independientes que consideraron tanto datos publicados como aquellos inéditos, muestran muestran que los ISRS no son más efectivos que el placebo en el tratamiento de la depresión leve a moderada, la condición para la que han sido más comúnmente prescritos [30, 31].

Así que ¿Cómo es que durante más de una década hemos estado convencidos de que estos tratamientos eran superiores? ¿Cómo ha podido «construirse un mito a partir de la evidencia de mil ensayos clínicos aleatorios»  [25] y ¿Cómo nos pudimos dejar embaucar?

¿Qué salió mal con los ensayos aleatorios?

Parece que hay algo en la forma en que los ECA se aplican al mundo real que ha socavado su fiabilidad. Exploraremos este tema preguntándonos:

• ¿Quién financia los ensayos aleatorios y consigue que importe quien lo hace?
• ¿Cómo se seleccionaron los ensayos aleatorios y qué preguntas se les pide?                                                           • ¿Qué ensayos son publicados con más frecuencia?                                                                                                       • ¿Cómo son los estudios identificados cuando se desacreditan sus conclusiones?

1) ¿Quién financia los ensayos aleatorios y consigue que importe quien lo hace?

En primer lugar, está claro que la mayor parte de la evidencia médica actual ha sido financiada por la industria, aunque a menudo estas relaciones financieras no han sido reveladas. Entre dos tercios y tres cuartas partes de todos los ensayos aleatorios publicados en las principales revistas han sido financiados por la industria [32, 33].

En segundo lugar, existen pruebas contundentes de que los estudios financiados por la industria producen resultados que difieren de los estudios financiados de forma independiente. En comparación con los ensayos independientes, los ensayos patrocinados por la industria exageraron los efectos positivos del tratamiento a favor de los productos fabricados por su patrocinador [34-37].

Aunque la influencia de la industria ha sido generalizada en toda la medicina, la psiquiatría ha estado en el epicentro de gran parte de la controversia sobre el sesgo de la fuente de financiación y el conflicto de intereses (por ejemplo, [38-40]). Entre los estudios aleatorizados, doble ciego, controlados con placebo publicados en las revistas psiquiátricas, las que informaron de conflictos de interés fueron cinco veces más propensas a mostrar resultados positivos [33].

Heres et al. revisaron los ensayos clínicos financiados por la industria comparando los antipsicóticos atípicos para determinar si existía una relación entre el patrocinador y el resultado del estudio [41]. Lo hicieron. El noventa por ciento de los ensayos mostró superioridad del fármaco del patrocinador. La circularidad resultante se ilustra en el título del estudio » ¿Por qué es mejor la olanzapina que la risperidona, la risperidona que la quetiapina y la quetiapina que la olanzapina?; en las comparaciones realizadas en los diferentes ensayos que examinaron las mismas dos drogas, el medicamento de los patrocinadores casi siempre triunfa. Este resultado, no plausible, no se debió a un sesgo de publicación. Los estudios habían sido diseñados de una manera que prácticamente garantizaba que el fármaco favorecido sería el «ganador» , por ejemplo, porque el fármaco de comparación fue dosificado demasiado bajo para ser eficaz o con dosis tan altas que podría producir efectos secundarios intolerables. La exclusión o la inclusión de pacientes específicos, periodos para poner plomo en el placebo (lead-in placebo), seguimiento corto, selección de las técnicas de imputación, el uso (o no) de ajustes e informes selectivos de resultados son técnicas que también permiten la ampliación de la estimación del tamaño del efecto. Algunos de estos métodos han sido resumidos por Smith [42] en el cuadro 1.

Diapositiva1
Otra prueba de los datos sesgados proviene de causas judiciales contra las empresas farmacéuticas. En 2012 GlaxoSmithKline (GSK) fue multado con una multa récord de 3 mil millones de dólares por varios delitos penales y civiles, incluyendo la promoción ilegal de medicamentos, el no informar de los datos de seguridad y por información falsa [43]. Esto incluye la creación de «artículos deliberadamente sesgados» que afirmaban falsamente la eficacia de la paroxetina (un ISRS) en menos de 18 segundos y la no divulgación de ensayos negativo . De hecho no había ninguna evidencia de la eficacia de paroxetina para los adolescentes y sí de un pequeño pero real riesgo de suicidio [44]. GSK también fue acusado de crear «consejos consultivos simulados y programas de formación médica continuada supuestamente independientes» [45].

GSK no es un caso atípico. Johnson & Johnson, fabricante de los antipsicóticos atípicos risperidona y paliperidona, se ha declarado recientemente culpable de delito menor en su comercialización de la risperidona [46]. La empresa fue multada con 2.2 mil millones de dólares en multas civiles y penales en el año 2013 y 1.2 mil millones en 2012 por prácticas engañosas, incluyendo ocultación de riesgos y exageración de beneficios [45, 47]. En el año 2009, Eli Lilly, pagó 1,4 millones de dólares por comercialización ilegal y ocultar supuestamente los riesgos de la olanzapina. En el año 2010 AstraZeneca pagó 520.000.000 dólares para resolver acusaciones en relación con la comercialización de la quetiapina (también un atípico) de manera ilegal y ocultar sus efectos adversos. Los documentos internos publicados como parte de esa acción de la corte proporcionaron un considerable conocimiento. Los correos electrónicos muestran una empresa de alto nivel discutir oficialmente estrategias que podrían dar «un giro positivo en este estudio maldito». «Lisa [médico de la compañía] ha realizado un gran trabajo de humo y espejos» se dice con satisfacción. «Hasta ahora, hemos enterrado los ensayos 15, 31 y 56», escribe un gerente de publicaciones. «El problema más grande es cómo nos enfrentaremos al mundo exterior cuando empiecen a criticarnos por suprimir datos» [48].

2) ¿Cómo se seleccionaron los ensayos aleatorios y qué preguntas se les pide?

Igual que los resultados sesgados de los ensayos clínicos, la selección de los tratamientos que son probados y las preguntas que son contestadas es impulsado por lo que probablemente será rentable tanto como por lo que puede beneficiar a los pacientes. Desafortunadamente, los beneficios para los pacientes y los beneficios económicos pueden tirar en direcciones opuestas.

Aunque el número de ensayos aleatorios está aumentando exponencialmente, la cantidad de datos disponibles sobre una intervención o práctica tiende a correlacionarse con el interés comercial y no con la importancia clínica de dicha intervención. Es decir, los ensayos aleatorios son caros por lo que los estudios financiados por la industria, naturalmente, se centran en los tratamientos potencialmente lucrativos [49] tales como nuevos medicamentos, medicamentos que siguen bajo patente, medicamentos de alto costo o medicamentos considerados de gran potencial comercial. Es revelador que, en comparación con los tratamientos farmacológico (patentables), ha habido muy pocos ensayos clínicos sobre el ejercicio físico para el tratamiento de la depresión, una intervención que una reciente revisión Cochrane sugería podía tener una eficacia equivalente al tratamiento farmacológico convencional [50]. Hasta que punto el ejercicio es útil para el tratamiento de la depresión es clínicamente muy relevante pero tiene nulo valor comercial ya que el ejercicio no puede ser patentado.

Por el contrario, muchas preguntas clínicamente sin importancia (o preguntas ya estudiadas adecuadamente) son investigadas extensivamente mientras que las cuestiones importantes se descuidan. Por ejemplo, miles de ensayos aleatorios comparan la eficacia de antipsicóticos similares y ninguno investiga el tratamiento efectivo del estreñimiento debido a los antipsicóticos, un efecto adverso angustiante que ocurre hasta en el 60 % de los pacientes tratados con estos medicamentos y que puede progresar a una obstrucción intestinal fatal [51].

3) ¿Qué ensayos son publicados con más frecuencia? 

Las compañías farmacéuticas tienen un incentivo natural para promover resultados favorables a sus productos y reducir al mínimo los resultados desfavorables. En la década de los 90, un empleado de Wyeth borró archivos de ensayos con evidencias que demostraban de computadora borrando la evidencia de que su dieta de drogas fen-phen causaba enfermedad valvular cardíaca [52]. Un enfoque más cauteloso (y popular) es simplemente su no publicación.ç

La publicación selectiva de resultados positivos y la no publicación de los resultados negativos se conoce como sesgo de publicación. La mejor estimación actual es que la mitad de todos los ensayos clínicos finalizados nunca han sido publicados en revistas académicas y algunos nunca han sido ni siquiera registrados [53]. El sesgo de publicación existe con los ensayos de la industria y los que no son de la industria  y para los ensayos de cualquier tamaño [54]. Esto distorsiona significativamente la evidencia.

Turner et al . intentaron responder a la pregunta «¿Cómo de exactamente la literatura publicada transmite datos sobre la eficacia del medicamento a la comunidad médica?» centrándose específicamente en los antidepresivos [55]. Examinaron todos los ensayos con antidepresivos completados y registrados en la FDA (n = 74) recurriendo a la Freedom of Information Act para obtener los datos completos ya que una tercera parte de los estudios no se había publicado. En 38 ensayos el antidepresivo estudiado fue más eficaz que el comparador (placebo u otro tratamiento activo). Vamos a llamar a estos 38 ensayos «positivos». En otros 36 ensayos «negativos» los antidepresivos estudiados no fueron más efectivas. Luego los investigadores examinaron el destino de estos ensayos. Que los ensayos fueran positivos o negativos se relacionaba fuertemente con la probabilidad de publicación del ensayo. Treinta y siete de los 38 ensayos con resultados positivos fueron publicados. Sin embargo, de los estudios negativos sólo tres fueron publicados con precisión. Veintidós no fueron publicados en absoluto y 11 fueron publicados en una forma que falsamente transmitió un resultado positivo. Esto se representa en la figura 1.

Captura de pantalla 2014-05-18 a la(s) 22.19.22

En resumen, en la literatura disponible para el prescriptor, el 94 % de los ensayos con antidepresivos muestran resultados positivos. Sin embargo, en realidad sólo el 51 % de los ensayos completados en la base de datos de la FDA fueron positivos lo que resulta en una sobreestimación del 32% del tamaño del efecto [54].

Este es el único estudio que nos informe en profundidad, por lo que una refutación válida sería que hemos hecho un «cherry picked», es decir, la selección de un ejemplo excepcional para apoyar nuestra tesis siendo culpables exactamente del mismo sesgo que estamos atacando. Sin embargo, este no es el caso. Hay una gran cantidad de evidencia, que incluye varias revisiones sistemáticas, en la que todos muestran una fuerte evidencia de sesgo de publicación [36, 52, 56, 57]. Tres revisiones sistemáticas que examinan todos los estudios jamás publicados – no es una empresa pequeña – encontraron que los estudios financiados por la industria en general tenían resultados positivos entre dos y cuatro veces más frecuencia [36, 52, 55].

Aunque el enfoque de la MBE condena el sesgo de publicación y se esfuerza para identificarlo, no podemos hacer esto de forma muy precisa. Hay numerosos métodos disponibles pero ninguno puede identificar o descartar un sesgo de selección en su totalidad [54, 58-61]. Estos métodos (tales como gráficos en embudo) se implementan a nivel de las revisión sistemáticas. Trazan los resultados de todos los estudios disponibles y utilizan modelos estadísticos para detectar lagunas. Estas son técnicas útiles pero se asemejan a las ambulancias parcialmente equipadas esperando en el fondo de un precipicio.

4) ¿Cómo son los estudios identificados cuando se desacreditan sus conclusiones?

La mala evidencia persiste. Los ensayos aleatorios sesgados no están claramente etiquetados como tales una vez desacreditados. Una vez que los documentos entran en la literatura electrónica allí permanecen. No hay bibliotecarios cyber vigilantes que estampe un «desacreditado» sobre ellos si son refutados con posterioridad y pueden continuar induciendo a error. Si un médico muy ocupado hace una búsqueda por palabras clave, el ensayo aleatorio desacreditado puede ser el primero en aparecer sin identificación de sus defectos. Incluso los críticos informados pueden ser engañados. Por ejemplo, Tatsioni et al . encontraron que el 50 % de las opiniones académicas seguían basándose en un ensayo clínico desacreditado que apoyaba un tratamiento (vitamina E para la enfermedad cardiaca) 5 años después de haber sido convincentemente demostrado que la terapia era ser ineficaz [62].

Discusión

Contando sus propios votos

La evidencia que hemos presentado dicta que los ensayos deberían realizarse por organismos independientes.

El sentido común sugiere lo mismo. Imagínese si el gobierno propusiera la disolución de la comisión electoral para permitir que los propios políticos contaran sus propios votos. Esto no sería aceptable por varias razones. Los políticos no son objetivos. Ellos han invertido tiempo y dinero en la campaña. Ellos creen en su partido. Ellos quieren ganar. El político menos honesto podría fabricar resultados. El más honesto podría abordar la tarea con sinceridad, pero ser influenciado subconscientemente a evaluar las papeletas incompletas como válidas basándose en sus anotaciones. Por estas razones válidas, los resultados no serían aceptados por lo que sería una pérdida de tiempo y dinero. Si este es el caso ¿Por qué se acepta el «el recuento de votos» de la industria en la demostración de la eficacia de sus propios productos? Y no necesitamos un experimento mental para explorar si los resultados podrían estar sesgados. Experimentos reales han demostrado en repetidas ocasiones esto.

El autofinanciamiento como una economía falsa

Se podría objetar al señalar que los ensayos aleatorios son muy caros. Llegamos a pensar que los ensayos aleatorios financiados por la industria representaban una feliz coincidencia entre el interés comercial y el bien público. Sin embargo, esto ha sido una falsa economía. No sólo los costos de investigación efectuados por la industria se han recuperado mediante financiación pública [63] sino que la evidencia resultante no es ni sólida ni confiable. Por otra parte, ya que los pacientes terminan pagando por los tratamientos (ya sea a través de impuestos, pólizas de seguros o de su bolsillo), el método menos sesgado para la evaluación de los tratamientos debería ser el que más le interesara. Ciertamente, lo que hemos escrito aquí sugiere que los pacientes se ahorrarían dinero en el largo plazo si los ensayos fueran independientes.

La industria no es la única sesgada

Uno podría argumentar que es injusto condenar a la industria por ser parcial cuando todos los seres humanos tienen prejuicios. Sería ingenuo pensar que los ensayos financiados con fondos públicos estarían libres de prejuicios. Este argumento es totalmente válido y cuando se presenta evidencia acerca de otros sesgos debemos ser conscientes de ello. Esto no es una excusa ante la falta de respuesta a los grandes sesgos de los ensayos financiados por la industria de los que somos conscientes en la actualidad.

¿Podría una mejor evidencia resultar en mejores evidencias acerca de la efectividad de la MBE?

Nuestro argumento en relación con el desempeño de la MBE no es un argumento «de principios» sino contingente. Nuestra creencia es que si tuviéramos ensayos aleatorios imparciales tendríamos una mejor base de evidencia que, de aplicarse, debería dar lugar a beneficios para la salud tangibles y medibles. Aunque se trata de una cuestión especulativa (es posible que incluso con la evidencia del todo imparcial, la MBE no se tradujera en beneficios demostrables para la población), es una hipótesis que vale la pena explorar. Nos pusimos en marcha buscando posibles soluciones a la naturaleza sesgada de los ensayos aleatorios financiados por la industria.

Hacia una solución

Hay un montón de polémicas sobre los males de las grandes farmacéuticas  y se pide una mayor rendición de cuentas y la regulación del sector. Apoyamos estos enfoques, pero los consideramos insuficiente. Es ingenuo pensar que podemos evitar que los intereses creados no introduzcan sesgos. Los políticos no pueden contabilizar sus votos y en el deporte hay que depender de los árbitros y no pueden ser los jugadores los que se encarguen de poner las sanciones. ¿En qué estábamos pensando asumiendo que la industria sería capaz de proporcionar evidencia sobre las intervenciones de salud que han desarrollado, en las que creen y de las que quieren beneficiarse? Tenemos que reconocer este sesgo inherente y tomar medidas contra él.

Está más allá del alcance de este artículo discutir soluciones prácticas con gran detalle, sin embargo, hacemos las siguientes sugerencias:

1) La campaña para formalizar y reforzar las medidas que aseguren el registro y la comunicación pública de todos los ensayos clínicos (ver www.alltrials.net) debe ser apoyada porque en caso contrario los ensayos que no dan una respuesta que interese a la industria seguirán siendo inéditos.

2) Se requiere más inversión en la investigación independiente. Como hemos descrito, es una falsa economía financiar indirectamente la investigación de la industria a través de los altos costos de los medicamentos patentados.

3) Organismos independientes, informados democráticamente, deberían ser los que establecieran las prioridades de investigación.

4) Las personas y las instituciones que llevaran a cabo los estudios independientes deberían ser recompensados ​​por la calidad metodológica de los estudios y no en función de si se las arreglan para conseguir un resultado positivo (un estudio «negativo» es tan valioso como uno «positivo» desde un punto de vista científico).

5) Instrumentos de evaluación de sesgos como la herramienta Cochrane [64]  deberían modificarse para incluir la fuente de financiación como un ítem independiente.

6) Los esquemas de categorización de la evidencia deberían modificarse para considerar el sesgo sistemático de la financiación de la industria. Ya existen mecanismos para rebajar la evidencia según el riesgo de sesgos. Por ejemplo, el sistema GRADE permite la actualización de la evidencia observacional demostrando efectos grandes y degradar los ensayos aleatorios por no ocultar adecuadamente la asignación (y varios otros factores) [65]. Sin embargo, en la actualidad este tipo de esquemas son agnósticos a los orígenes de la evidencia y no reconocen expresamente el alto riesgo de sesgo cuando los productores de pruebas tienen un interés comercial en los resultados. Sería fácil introducir un elemento de calidad de la evidencia que evaluase si el ensayo fue realizado o financiado por un organismo con conflicto de intereses. Si es así, calidad de la evidencia debería ser rebajada. Ante el fracaso de los ranking actuales de la evidencia para detectar y descartar el sesgo de financiación de la industria, este es un paso necesario si queremos que la valoración crítica de la MBE siga siendo creíble.

Las cuatro primeras propuestas no son nuevas. Sin embargo, formalmente modificar los sistemas de ranking de la evidencia rebajando de manera explícita la investigación con el sesgo del interés no parece haber sido previamente examinado por el movimiento del aMBE. Esto sería un paso sencillo y fácil de implementar que puede facilitar un movimiento que pase de la glorificación de la MBE «per se» a una situación  en la que no toda la evidencia tenga la misma credibilidad y donde se reconozca que el sesgo de financiación es persuasivo y causa errores.

Conclusión

Hemos demostrado que los ensayos desfavorables se quedan con frecuencia sin publicar y no están disponibles para los médicos y pacientes. A través de los procesos de publicación selectiva y la manipulación del diseño del estudio, los estudios patrocinados por la industria tienden a ser favorables a sus productos. En pocas palabras, la evidencia patrocinada por la industria es incompleta y está sesgada. La mayoría de los estudios de intervención son patrocinados por la industria. Esto significa que las pruebas en general acerca de muchas intervenciones son incompletas y sesgadas. Como resultado de ello, los pacientes pueden recibir tratamientos menos eficaces, perjudiciales o más caros. Hemos propuesto algunas soluciones posibles, incluida la de que el movimiento MBE rebaje explícitamente toda la investigación producida por los que tienen un interés particular en los resultados.

Bibliografía

  1. Sackett, D. L., Rosenberg, W. M., Gray, J. A., Haynes, R. B. & Richardson, W. S. (1996) Evidence based medicine: what it is and what it isn’t. British Medical Journal, 312 (7023), 71–72.
  2. Straus, S. E., Glasziou, P., Richardson, W. S. & Haynes, R. B. (2011) Evidence-Based Medicine: How to Practice and Teach EBM. Edin- burgh: Churchill Livingstone.
  3. OCEBM Levels of Evidence Working Group (2001) The Oxford Levels of Evidence 2. Oxford Centre for Evidence-Based Medicine. http://www.cebm.net/index.aspx?o=5653 (17 February 2014).
  4. Evidence Based Medicine Working Group (1992) Evidence-based medicine. A new approach to teaching the practice of medicine. Journal of the American Medical Association, 268, 2420–2425.
  5. Manser, R. & Walters, E. H. (2001) What is evidence-based medicine and the role of the systematic review: the revolution coming your way. Monaldi Archives for Chest Disease, 56 (1), 33–38.
  6. New York Times. (2001) The Year in Ideas. Available at http://www.nytimes.com/2001/12/09/magazine/the-year-in-ideas-a-to -z-distroboto.html (last accessed 17 February 2014).
  7. Haynes, R. B. (2002) What kind of evidence is it that evidence-based medicine advocates want health care providers and consumers to pay attention to? BMC Health Services Research, 2 (1), 3.
  8. Zimerman, A. L. (2013) Evidence-based medicine: a short history of a modern medical movement. The Virtual Mentor, 15 (1), 71–76.
  9. Krumholz, H. M., Radford, M. J., Wang, Y., Chen, J., Heiat, A. & Marciniak, T. A. (1998) National use and effectiveness of beta- blockers for the treatment of elderly patients after acute myocardial infarction: National Cooperative Cardiovascular Project. Journal of the American Medical Association, 280, 623–629.
  10. Mitchell,J.B.,Ballard,D.J.,Whisnant,J.P.,Ammering,C.J.,Samsa, G. P. & Matchar, D. B. (1996) What role do neurologists play in determining the costs and outcomes of stroke patients? Stroke, 27, 1937–1943.
  11. Lacchetti,C.,Ioannidis,J.P.& Guyatt,G.H.(2002)Surprising results of randomized, controlled trials. In The Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice (eds G. Guyatt & D. Rennie), pp. 247–265. Chicago, IL: AMA Publications. Nelson, H. D., Humphrey, L. L., Nygren, P., Teutsch, S. M. & Allan, J. D. (2002)
  12. Postmenopausal hormone replacement therapy. Journal of the American Medical Association, 288 (7), 872–881.
  13. Shin, J. & Haynes, R. B. (1991) Does a problem-based, self-directed undergraduate medical curriculum promote continuing clinical com- petence? Clinical Research, 39, 143A.
  14. Le Fanu, J. (1999) The Rise and Fall of Modern Medicine. New York: Little Brown.
  15. Feldstein, P. J. (2011) Health Care Economics, 7th edn. Albany, New York: Delmar.
  16. European Trusted Brands Survey (2013). The brands you trust Avail- able at: http://panorama-magazine.ch/_wpSafe/assets/_downloads/ ETB-2013-Guide.pdf (last accessed 30 April 2014).
  17. Howick, J. H. (2002) The Philosophy of Evidence-Based Medicine. Oxford: Wiley-Blackwell.
  18. World Health Organisation (2014) Schizophrenia. Available at: http://www.who.int/mental_health/management/schizophrenia/en/ (17 February 2014).
  19. BCC Research. (2010) Antipsychotic drugs: technologies and global markets. Report code: PHM063A. Available at: http://www .bccresearch.com/report/PHM063A.html (last accessed 17 February 2014).
  20. World Health Organization. (2012) Global burden of mental disorders and the need for a comprehensive, coordinated response from health and social sectors at the country level. Document EB130. R, 8. Available at: http://apps.who.int/gb/ebwha/pdf_files/WHA65/A65 _10-en.pdf (17 February 2014).
  21. CBI Research. (2012). Antidepressants Market to 2018 – Despite Safety Concerns, Selective Serotonin Re-uptake Inhibitors (SSRIs) Continue to Dominate in the Absence of Effective Therapeutic Alternatives. Available at: http://www.gbiresearch.com/Report .aspx?ID=Antidepressants-Market-to-2018-Despite-Safety-Concerns -Selective-Serotonin-Re-uptake-Inhibitors-(SSRIs)-Continue-to -Dominate-in-the-Absence-of-Effective-Therapeutic-Alternatives (last accessed 17 February 2014).
  22. Sahling, D. L. (2009) Pediatric bipolar disorder: underdiagnosed or fiction? Ethical Human Psychology and Psychiatry, 11 (3), 215–228.
  23. Rosenheck, R. A., Leslie, D. L., Sindelar, J., et al. (2006) Cost- effectiveness of second generation antipsychotics and perphenazine in a randomized trial of treatment for chronic schizophrenia. American Journal of Psychiatry, 163 (12), 2080–2089.
  24. National Institute of Health (2006) Comparing drugs for schizophre- nia. Available at: http://www.nih.gov/researchmatters/december2006/ 12112006drugs.htm (last accessed 17 February 2014).
  25. Ioannidis, J. P. (2008) Effectiveness of antidepressants: an evidence myth constructed from a thousand randomized trials? Philosophy, Ethics and Humanities in Medicine, 3, 14.
  26. Pratt, L. A., Brody, D. J. & Gu, Q. (2011) Antidepressant Use in Persons Aged 12 and Over: United States, 2005–2008. NCHS Data Brief, No. 76. Hyattsville, MD: National Center for Health Statistics.
  27. Lieberman, J. A., Stroup, S., McEvoy, J. P., et al. (2005) Effectiveness of antipsychotic drugs in patients with chronic schizophrenia. New England Journal of Medicine, 353, 1209–1223.
  28. Jones, P. B., Barnes, T. R., Davies, L., Dunn, G., Lloyd, H., Hayhurst, K. P., Murray, R. M., Markwick, A. & Lewis, S. W. (2006) Randomized controlled trial of the effect on quality of life of second- versus first-generation antipsychotic drugs in schizophrenia: Cost Utility of the Latest Antipsychotic Drugs in Schizophrenia Study (CUtLASS 1). Archives of General Psychiatry, 63 (10), 1079–1087.
  29. Kahn, R. S., Fleischhacker, W. W., Boter, H., et al. (2008) Effective- ness of antipsychotic drugs in first-episode schizophrenia and schizophreniform disorder: an open randomised clinical trial. The Lancet, 371 (9618), 1085–1097.
  30. Fournier, J. C., DeRubeis, R. J., Hollon, S. D., Dimidjian, S., Amsterdam, J. D., Shelton, R. C. & Fawcett, J. (2010) Antidepressant drug effects and depression severity: a patient level meta-analysis. Journal of the American Medical Association, 303, 47–53.
  31. Kirsch, I., Deacon, B. J., Huedo-Medina, T. B., Scoboria, A., Moore, T. J. & Johnson, B. T. (2008) Initial severity and antidepressant ben- efits: a meta-analysis of data submitted to the food and drug adminis- tration. PLoS Medicine, 5, e45.
  32. Egger, M., Bartlett, C. & Jüni, P. (2001) Are randomised controlled trials in the BMJ different? British Medical Journal, 323, 1253–1254.
  33. Perlis, R. H., Perlis, C. S., Wu, Y., Hwang, C., Joseph, M. & Nierenberg, A. A. (2005) Industry sponsorship and financial conflict of interest in the reporting of clinical trials in psychiatry. American Journal of Psychiatry, 162, 1957–1960.
  34. Jorgensen, A. W., Hilden, J. & Gøtzsche, P. C. (2006) Cochrane reviews compared with industry supported meta-analyses and other meta- analyses of the same drugs: systematic review. British Medical Journal, 333, 782.
  35. Leopold, S. S., Warme, W. J., Fritz, B. E. & Shott, S. (2003) Asso- ciation between funding source and study outcome in orthopaedic research. Clinical Orthopaedics and Related Research, 415, 293–301.
  36. Lexchin, J., Bero, L. A., Djulbegovic, B. & Clark, O. (2003) Pharma- ceutical industry sponsorship and research outcome and quality: sys- tematic review. British Medical Journal, 326, 1167–1170.
  37. Yaphe, J., Edman, R., Knishkowy, B. & Herman, J. (2001) The asso- ciation between funding by commercial interests and study outcome in randomized controlled drug trials. Family Practice, 18, 565–568.
  38. Lacasse, J. R. & Leo, J. (2010) Ghostwriting at elite academic medical centers in the United States. PLoS Medicine, 7, e1000230.
  39. Roehr, B. (2011) Professor files complaint of scientific misconduct over allegation of ghostwriting. British Medical Journal, 343, d4458.
  40. Chimonas, S., Stahl, F. & Rothman, D. J. (2012) Exposing conflict of interest in psychiatry: does transparency matter? International Journal of Law and Psychiatry, 35, 490–495.
  41. Heres, S., Davis, J., Maino, K., Jetzinger, E., Kissling, W. & Leucht, S. (2006) Why olanzapine beats risperidone, risperidone beats quetiapine, and quetiapine beats olanzapine: an exploratory analysis of head-to-head comparison studies of second-generation antipsychotics. American Journal of Psychiatry, 163, 185–194.
  42. Smith, R. (2005) Medical journals are an extension of the marketing arm of pharmaceutical companies. PLoS Medicine, 2 (5), e138.
  43. Roehr, B. (2012) GlaxoSmithKline is fined record $3 billion in US. British Medical Journal, 345, e4568.
  44. Lenzer, J. (2006) Manufacturer admits increase in suicidal behaviour in patients taking paroxetine. British Medical Journal, 332 (7551), 1175.
  45. Department of Justice (2012) GlaxoSmithKline to plead guilty and pay $3 billion to resolve fraud allegations and failure to report safety data. 2 July. Available at: http://www.justice.gov/opa/pr/2012/July/12-civ-842.html (last accessed 17 February 2014).
  46. Kmietowicz, Z. (2012) Johnson & Johnson to pay $2.2 bn to settle charges of false marketing on three drugs. British Medical Journal, 347, f6696.
  47. Tanne, J. H. (2012) US judge fines Johnson & Johnson $1.1 bn for misleading marketing of risperidone. British Medical Journal, 344, e2772.
  48. Elliot, C. (2010) White Coat, Black Hat: Adventures on the Dark Side of Medicine. Boston, MA: Beacon Press.
  49. Brown, J. R. (2008) Politics, method, and medical research. Philoso- phy of Science, 75 (5), 756–766.
  50. Cooney, G. M., Dwan, K., Greig, C. A., Lawlor, D. A., Rimer, J., Waugh, F. R., McCurdo, M. & Mead, G. E. (2013) Exercise for depression. Cochrane Database of Systematic Reviews, (9), CD004366.
  51. Palmer, S. E., McLean, R. M., Ellis, P. M., Harrison-Woolrych, M. (2008) Life-threatening clozapine-induced gastrointestinal hypo- motility: an analysis of 102 cases. Journal of Clinical Psychiatry, 69 (5), 759–768.
  52. Zuckerman, D. (2003) Hype in health reporting: ‘checkbook science’ buys distortion of medical news. International Journal of Health Ser- vices, 33 (2), 383–389.
  53. Song, F., Parekh, S., Hooper, L., et al. (2010) Dissemination and publication of research findings: an updated review of related biases. Health Technology Assessment, 14 (8), iii, ix–xi, 1–193. Avail- able at: http://www.hta.ac.uk/fullmono/mon1408.pdf (last accessed 17 February 2014).
  54. Ross, J. S., Mulvey, G. K., Hines, E. M., Nissen, S. E. & Krumholz, H. M. (2009) Trial publication after registration in clinicaltrials.gov: a cross-sectional analysis. PLoS Medicine, 6 (9), e1000144.
  55. Turner, E. H., Matthews, A. M., Linardatos, E., Tell, R. A. & Rosenthal, R. (2008) Selective publication of antidepressant trials and its influence on apparent efficacy. New England Journal of Medicine, 358 (3), 252–260.
  56. Bekelman, J. E., Li, Y. & Gross, P. (2003) Scope and impact of financial conflicts of interest in biomedical research. Journal of the American Medical Association, 289 (4), 454–465.
  57. Dwan, K., Altman, D. G., Arnaiz, J., et al. (2008) Systematic review of the empirical evidence of study publication bias and outcome report- ing bias. PLoS ONE, 3 (8), e3081.
  58. Sterne, J. A., Gavaghan, D. & Egger, M. (2000) Publication and related bias in meta-analysis: power of statistical tests and prevalence in the literature. Journal of Clinical Epidemiology, 53 (11), 1119– 1129.
  59. Hayashino, Y., Noguchi, Y. & Fukui, T. (2005) Systematic evaluation and comparison of statistical tests for publication bias. Journal of Epidemiology, 15 (6), 235–243.
  60. Lau, J., Ioannidis, J. P., Terrin, N., Schmid, C. H. & Olkin, I. (2006) Evidence based medicine: the case of the misleading funnel plot. British Medical Journal, 333 (7568), 597–600.
  61. Ioannidis, J. P. & Trikalinos, T. A. (2007) The appropriateness of asymmetry tests for publication bias in meta-analyses: a large survey. Canadian Medical Association Journal, 176 (8), 1091–1096.
  62. Tatsioni, A., Bonitsis, N. G. & Ioannidis, J. P. (2007) Persistence of contradicted claims in the literature. Journal of the American Medical Association, 298 (21), 2517–2526.
  63. Goldacre, B. (2012) Bad Pharma: How Drug Companies Mislead Doctors and Harm Patients. London: Fourth Estate.
  64. Higgins, J. P. T., Altman, D. G. & Sterne, J. A. C. (eds) (2011) Assessing risk of bias in included studies. In Cochrane Handbook for Systematic Reviews of Interventions Version 5.I.0 [updated March 2011] The Cochrane Collection. (eds. Higgins, J. P. T. & S. Green). Available from Handbook cochrane-org (last accessed 17 February 2014).
  65. Guyatt, G. H., Oxman, A. D., Vist, G., Kunz, R., Falck-Ytter, Y., Alonso-Coello, P. & Schünemann, H. J.; GRADE Working Group (2008) GRADE: an emerging consensus on rating quality of evidence and strength of recommendations. British Medical Journal, 336, 924– 926

Comparte este post en tus redes sociales
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin