Es uno de tantos análisis de subgrupo que nos ha engañado, haciendo que muchas veces se identificaran incorrectamente subgrupos de personas que no parecían beneficiarse de un tratamiento eficaz. Así, por ejemplo, se pensaba que el tamoxifeno, bloqueador hormonal, no servía para el tratamiento del cáncer de mama si las pacientes no tenían más de 50 años (era un error); se creía que los fármacos trombolíticos eran ineficaces, e incluso perjudiciales, en el tratamiento de infartos en pacientes que ya habían sufrido otro (era un error); se creía que los fármacos llamados «inhibidores de la ECA» no reducían la tasa de mortalidad en pacientes con insuficiencia cardiaca si tomaban también aspirina (era un error). Y, cosa poco habitual, ninguno de esos ensayos fue motivado por ánimo de lucro, sino, quizás, por la ambición o por el estimulo de nuevos descubrimientos, por supuesto, o simplemente por ignorancia de los riesgos del análisis de subgrupos y, por el azar, desde luego.

ENSAYOS EN SUBGRUPOS POCO FIABLES EN VEZ DE EN PACIENTES

Se puede agrupar una serie de ensayos, referenciándolos selectivamente y hacer que un fármaco parezca más eficaz de lo que es. Si se hace en una sola aplicación de un fármaco concreto, el propósito está claro. Pero puede hacerse también dentro de un programa de investigación clínica, creando una confusión que nadie entiende.

Ya hemos visto que los ensayos favorables cuentan con mayores probabilidades que los desfavorables de ser publicados y difundidos, lo cual resulta engañoso. El problema se reduce a lo siguiente: si únicamente revisamos sistemáticamente los ensayos publicados, solo examinamos un subconjunto de los resultados, y un subconjunto que, además, recoge mayor cantidad de resultados positivos. Salimos con una cesta a comprar ensayos y solo nos dan los más bonitos. Pero sería poco inteligente pensar que solo existen ensayos bonitos.

Este mismo problema —el de cómo escoger un muestreo de ensayos— se plantea de un modo mucho más curioso, que ilustraremos a continuación con un ejemplo.

El bevacizumab es un anticancerígeno caro —las ventas en 2010 ascendieron a 2700 millones de dólares—, pero no da muy buen resultado. Si entran en ClinicalTrials.gov, en el registro de ensayos (que ya de por sí presenta inconvenientes, cómo no), encontrarán unos 1000 ensayos del fármaco con muy distintos tipos de cáncer, desde cáncer renal y pulmonar hasta cáncer de mama e intestinal; se utiliza para todo.

Inevitable y lamentablemente faltan muchos resultados de esos ensayos. En 2010 dos investigadores griegos se dispusieron a seguir la pista de todos los estudios que lograron localizar[31]. Examinando únicamente los ensayos amplios de «fase 3», en los que se comparó el bevacizumab con un placebo, hallaron veintiséis ensayos concluidos, y solo nueve publicados (lo que representa datos relativos a 7234 pacientes), y en tres de ellos, los datos se presentaron en un congreso (los datos relativos a 4669 pacientes). Otros catorce ensayos, con 10 724 pacientes, no se publicaron.

Esto de por sí ya es censurable, pero no es lo más llamativo.

Los investigadores juntaron los resultados y, en general, parece ser que, independientemente de los distintos tipos de cáncer, el fármaco incrementa de forma breve y limitada la supervivencia, y aproximadamente de igual manera en todos los tipos de cáncer (pero recuerden que eso ocurre antes de tener en cuenta los efectos secundarios y otros costes muy reales). Pero tampoco es esto lo más curioso: recuerden que tratamos de alejarnos de la idea de que los resultados de un solo fármaco son una novedad, para centrarnos en aspectos estructurales que afectan a todos los fármacos y a todas las enfermedades.

Ahora viene lo bueno. Desde junio de 2009 hasta marzo de 2010 se publicaron seis revisiones sistemáticas y metaanálisis del bevacizumab, relativas a seis tipos distintos de cáncer que incluían los pocos ensayos específicos sobre esos cánceres.

Bien, si uno de esos informes de metaanálisis arroja un beneficio positivo del fármaco, en un determinado tipo de cáncer, ¿se trata de un efecto real? ¿No será más bien un análisis de subgrupo en el que existe mayor oportunidad de obtener un beneficio positivo, independientemente de los efectos reales del fármaco, por simple casualidad, del mismo modo que cuando se lanza muchas veces seguidas un dado acaba saliendo un seis? El resultado está cogido por los pelos. Para mí es un análisis de subgrupo, y John Ioannidis y Fotini Karassa, los dos investigadores que recopilaron los datos, son de la misma opinión. En ninguno de los metaanálisis se tuvo en cuenta el hecho de que solo era una parte de un programa de investigación más amplio, en el que disparando con ametralladoras sobre un muro habría un instante en que unas cuantas balas necesariamente impactarían muy juntas. La argumentación de Ioannidis y Karassa es que es necesario analizar los programas de ensayos clínicos y no los ensayos por separado, ni conjuntos de ensayos, y hacer un recuento de todos los ensayos realizados con un fármaco para una enfermedad concreta. A mí me parece que no les falta razón, pero es un asunto complicado. Hay trampas por doquier, como ahora verán.

«ENSAYOS DE SIEMBRA»

A veces los ensayos no son auténticos ensayos, sino proyectos víricos de mercadotecnia pensados para lograr que el mayor número posible de médicos recete el nuevo fármaco, y se llevan a cabo con escaso número de participantes de muchas clínicas distintas que se suman en un total.

Supongamos que tratamos de averiguar si un nuevo analgésico, cuya eficacia ya se ha comprobado en ensayos estrictos con pacientes ideales, funciona en la práctica clínica. El dolor es algo muy generalizado, y, por consiguiente, el enfoque obvio y práctico es probarlo en un reducido número de clínicas de una comunidad, que sirven de centros de investigación, reclutando en ellas un gran número de pacientes. Enfocar el ensayo de este modo presenta muchas ventajas: se entrena fácilmente y sin mucho gasto a un pequeño número de participantes y médicos; los costes administrativos serán menores, y se puede hacer una vigilancia adecuada de los requisitos de recogida de datos, lo que se traduce en una mayor posibilidad de obtener datos de buena calidad y resultados fiables.

El ensayo ADVANTAGE del Vioxx se llevó a cabo de un modo muy distinto. Se reclutó a 5000 pacientes, pero la metodología fijaba que cada uno de los médicos tratase exclusivamente a un puñado de ellos, lo cual se tradujo en una numerosa participación de médicos: seiscientos al finalizar el ensayo. Para Merck no tenía importancia porque el propósito del estudio no era realmente averiguar la eficacia del fármaco, sino dar publicidad al Vioxx entre el mayor número posible de médicos para habituarlos a recetarlo e inducirlos a que hablaran de él con sus amistades y colegas.

De la idea básica que subyace en los ensayos de siembra se lleva hablando desde hace años en la bibliografía médica, pero en voz baja ante el peligro de difamación que se cierne sobre cualquiera. El motivo es que si ya el número de centros para el ensayo resulta extraño en principio, no se puede estar absolutamente seguro de que cualquier proyecto de esta naturaleza sea un ensayo de siembra, a menos que se sorprenda a la empresa hablando abiertamente del asunto.

En 2008 se hizo pública nueva documentación durante otro pleito del Vioxx en que la farmacéutica aportó claramente esa prueba[32]. Aunque a pacientes y médicos se les aseguró que el ensayo ADVANTAGE era una investigación, leyendo la documentación interna, se comprueba, en realidad, que se trataba de un ensayo promocional desde un principio. En un comunicado interno, por ejemplo, con el título de «descripción y fundamento», se explica cómo el ensayo fue «diseñado y ejecutado en consonancia con el espíritu de los principios mercadotécnicos de Merck», que eran básicamente: llegar a un grupo de clientes críticos (médicos de cabecera); utilizar el ensayo para demostrar a los médicos la utilidad del fármaco; integrar la investigación con los equipos de comercialización, y hacer un seguimiento del número de recetas de Vioxx emitidas por los médicos una vez concluido el ensayo. Los datos los gestionó enteramente el departamento de comercialización de Merck, y el principal autor del trabajo académico en que se notificó el ensayo declaró más tarde al New York Times que él no había intervenido ni en la recogida ni en el análisis de datos.

Los ensayos de siembra plantean graves interrogantes. Para empezar, el propósito del ensayo se oculta a los pacientes participantes y a los médicos, pero también a los comités deontológicos que autorizan el reclutamiento de pacientes. En este aspecto, el artículo de fondo que acompañaba el trabajo en el que se ponía al descubierto el ensayo ADVANTAGE es demoledor, como difícilmente puede llegar serlo un artículo de revista académica:

[Estos documentos] revelan que el engaño es la clave para llevar a cabo un ensayo de siembra […]. Seguramente los comités de revisión institucional, cuyo cometido es proteger a seres humanos que participan en la investigación, no aprobarían una acción que expone a riesgos a los pacientes con el propósito de influir en los hábitos de prescripción de los médicos. Si lo supieran, pocos investigadores clínicos en ejercicio participarían en semejante investigación. Pocos médicos embarcarían a sabiendas a sus pacientes en un estudio que los expone a riesgos para dar ventaja comercial a una empresa, y pocos pacientes se avendrían a participar. Los ensayos de siembra son posibles únicamente porque la empresa no revela su verdadero propósito a quienes podrían decir «no»[33].

Por tanto, con los ensayos de siembra se engaña a los pacientes. También es patético —para mí, como médico, en cualquier caso— imaginar los brindis vacuos de médicos engreídos, arrogantes y burlados. Imagínenselos en un pub diciendo: «Pues sí, estamos obteniendo resultados excepcionales con el Vioxx» o «¿Te dije que participo como investigador en ese ensayo? Es fascinante el trabajo que estamos haciendo…».

Pero todavía hay muchas más cosas inquietantes en este tipo de ensayos, porque también generan datos de baja calidad, ya que su metodología está orientada a fines comerciales y no a solucionar ningún problema clínico relevante. Recoger datos de pequeños grupos de pacientes en numerosos lugares es arriesgarse a todo tipo de problemas inútiles: peor calidad de control de la información, por ejemplo, o peor entrenamiento para el personal de investigación que interviene en el ensayo, o aumento del riesgo de mala conducta e incompetencia, etc.

Esto es evidente en otro ensayo de siembra llamado STEPS, en el que se probó en clínicas neurológicas públicas un medicamento llamado Neurontin para pacientes epilépticos. El verdadero propósito quedó al descubierto, una vez más, al hacerse pública la documentación de la farmacéutica durante el pleito (es la razón —insisto— por la que las farmacéuticas recurrirán a lo que sea con tal de negociar en privado las querellas judiciales al margen del tribunal)[34]. Como sin duda esperarán, en esa documentación se habla sin tapujos del ensayo como instrumento comercial. En un memorable comunicado interno se afirma: «STEPS es el mejor instrumento de que disponemos para el Neurontin, y debemos utilizarlo por doquier». Para que quede bien claro, no se habla en esa cita de utilizar los resultados del ensayo para comercializar el fármaco, porque se redactó cuando el ensayo estaba en curso.

Este ensayo plantea idénticas preocupaciones éticas, ya que una vez más se engañó a pacientes y a médicos. Pero igualmente preocupante es la calidad de los datos: los médicos que intervinieron como «investigadores» tenían poca práctica, poca o nula experiencia en ensayos clínicos, y no se les hizo una entrevista valorativa antes de comenzar el ensayo. Cada médico simplemente reclutó un promedio de cuatro pacientes y el ensayo fue estrechamente supervisado no por académicos sino por comerciales de la empresa, que recogieron personalmente los datos, rellenaron los formularios del ensayo e, incluso, entregaron regalos de propaganda durante la recogida de datos.

Todo esto es muy preocupante porque el Neurontin no es un fármaco sin tacha. Entre 2759 pacientes, hubo 73 episodios adversos graves, 997 pacientes con efectos secundarios y 11 muertes (aunque, como ya saben, no se puede estar seguro de que sean imputables al fármaco). Para el Vioxx, en el caso del ensayo de siembra ADVANTAGE, la situación es aún más grave, ya que el fármaco fue finalmente retirado del mercado porque incrementaba el riesgo de infarto en los pacientes que lo tomaban. El propósito de la investigación de buena calidad es detectar beneficios o problemas graves en los medicamentos; y en un ensayo de investigación bien hecho, centrado en resultados reales, se habría detectado ese riesgo mucho antes, reduciendo los daños infligidos a los pacientes.

Que aún sigan apareciendo ensayos de siembra es muy preocupante, y las sospechas aumentan cuando aparece publicado un nuevo ensayo sobre un fármaco que acaba de ponerse a la venta en el que el número de centros de reclutamiento resulta sospechosamente elevado y en los que solo se ha reclutado un reducido número de pacientes en cada uno de ellos. Algo que no es infrecuente.

Ahora bien, a falta de pruebas documentales de que esos ensayos hayan sido diseñados con propósitos comerciales víricos, muy pocos académicos se atreverían a denunciarlo.

PRETENDER QUE TODO SEA POSITIVO SIN NINGÚN REPARO

Al final del ensayo, si los resultados no son gran cosa, se exageran al presentar las cifras, y si no se ha conseguido un resultado positivo, solo es cuestión de exagerar más.

A veces las cosas resultan complejas, pero solo hay una manera fácil de amañar un resultado de ensayo desfavorable: exagerarlo. Un buen ejemplo es el de las estatinas. A juzgar por las pruebas disponibles sobre esta clase de fármacos, parece que apenas reducen a la mitad el riesgo de infartos en un período determinado, al margen del grado del riesgo previo. Por tanto, si el riesgo de infarto es muy alto —colesterol elevado, tabaquismo, exceso de peso, etc.—, una estatina reduce a la mitad ese riesgo elevado de infarto; pero si el riesgo de infarto es modesto, reduce ese pequeño riesgo a la mitad, lo cual supone una pequeña diferencia en un riesgo pequeño. Si les resulta más fácil visualizarlo con un ejemplo concreto, imagínense lo siguiente: las posibilidades de morir por efecto de un meteorito que les caiga en la cabeza son espectacularmente menores si llevan un casco de motorista todos los días, pero los meteoritos no caen muy a menudo en la cabeza de nadie.

Vale la pena señalar que hay muy diversas maneras de expresar numéricamente la reducción de riesgo, y que cada una de ellas influye también de diversas maneras sobre nuestro modo de pensar, pese a que describan con exactitud una misma realidad. Pongamos que sus posibilidades de sufrir un infarto durante el próximo año son altas: 40 personas de entre 1000 como usted sufrirán un infarto el año que viene, o si lo prefiere, el 4% de personas como usted. Pongamos que se somete a esas personas a un tratamiento con una estatina, y que se reduce el riesgo de modo que solo 20 sufren el infarto, o un 2%. Podríamos decir que es «un 50% de reducción del riesgo de infarto», porque ha pasado del 4% al 2%. Este modo de expresar el riesgo se denomina «reducción relativa del riesgo» —suena estupendamente porque es una cifra alta—; pero también podría expresarse el mismo cambio de riesgo como «reducción absoluta del riesgo», el cambio del 4% al 2% supone un cambio del 2%, o «un 2% de reducción del riesgo de infarto». Dicho así ya no impresiona tanto.

Bien, pongamos que las posibilidades de sufrir un infarto el año que viene son escasas (seguramente se imaginan a dónde quiero ir a parar, pero no importa). Digamos que cuatro personas como usted de entre 1000 sufren un infarto el año que viene, pero si todas toman estatinas, solo dos de ellas sufrirán el temible episodio. Expresado en reducción relativa del riesgo, sigue siendo un 50% de reducción, pero expresado en reducción absoluta del riesgo es un 0,2% de reducción, lo que resulta mucho más modesto.

No son pocos quienes dentro del mundo de la medicina andan preocupados por la manera de comunicar riesgos y resultados, y algunos trabajan en el apasionante sector llamado «decisión compartida»[35]. Estos especialistas han creado toda clase de herramientas numéricas para ayudar a clínicos y pacientes a calcular con exactitud qué beneficio se obtiene en cada tratamiento cuando se plantean, por ejemplo, diversas opciones de quimioterapia posoperatoria en un cáncer de mama. La ventaja de estas herramientas es que acercan más a los médicos a su futura función, convirtiéndolos en una especie de comprador de tratamientos, una persona capaz de encontrar pruebas científicas y comunicar claramente el riesgo, y capaz a la vez de entender, hablando con los pacientes, sus intereses y prioridades, ya sea que quieran «más vida al precio que sea» o «nada de efectos secundarios».

La investigación demuestra que si se presentan los beneficios como una reducción relativa del riesgo, los pacientes se inclinan más por la medicación. Por ejemplo, en un estudio se recopiló a 470 pacientes en salas de espera de consultas, se les aportó datos sobre una hipotética enfermedad y se les explicó los beneficios de dos tratamientos posibles[36]. En realidad, los dos tratamientos eran el mismo y procuraban idéntico beneficio, pero el riesgo se expresó de dos maneras distintas. Más de la mitad de los pacientes optó por la medicación en la que el beneficio se expresaba como reducción relativa del riesgo, mientras que solo uno de cada seis optó por aquella en que el beneficio se expresaba en términos absolutos (casi todos los demás se mostraron indiferentes).

Sería erróneo pensar que los pacientes son los únicos en dejarse manipular por la manera en que se presentan las cifras de riesgo y beneficio. De hecho, se ha recogido exactamente el mismo resultado en repetidos experimentos en que se examinaron las decisiones de prescripción del médico[37], e incluso en las decisiones oficiales de compra[38], ámbito en el que cabría esperar médicos y gestores con conocimientos matemáticos capaces de calcular riesgo y beneficio.

Por eso es preocupante ver que se utiliza la reducción relativa de riesgo al notificar modestos beneficios en nuevos tratamientos, tanto en los medios de comunicación normales como en las publicaciones profesionales. Un buen ejemplo de ello lo tenemos recientemente de nuevo en el ámbito de las estatinas, en el ensayo Jupiter.

En este ensayo se verificaron los beneficios de un fármaco ya en uso, la rosuvastatina, para pacientes con bajo riesgo de infarto. En el Reino Unido la mayoría de la prensa lo calificó de «medicamento asombroso» (el bendito Daily Express dijo que era un tratamiento totalmente nuevo[39], cuando se trataba en realidad de una nueva aplicación para pacientes con bajo riesgo de un tratamiento que se venía utilizando hacía años en pacientes con alto riesgo). Todos los periódicos se refirieron al beneficio del fármaco expresándolo con una reducción relativa del riesgo: «Los infartos se redujeron un 54%, las apoplejías, un 48%, y la necesidad de angioplastia o bypass, en un 46% entre el grupo medicado con Crestor en comparación con los enfermos que tomaron placebo», aseguraba el Daily Mail. The Guardian afirmaba: «Los investigadores observaron que en el grupo que tomó el medicamento el riesgo de infarto disminuyó un 54% y la apoplejía, un 48%»[40].

Las cifras eran totalmente exactas, pero, como ya saben, presentarlas como reducción relativa del riesgo es exagerar el beneficio. Si se expresan los mismos resultados exactos del mismo ensayo como reducción absoluta del riesgo, no son tan espectaculares. En el grupo con placebo, el riesgo de infarto en el ensayo fue de 0,37 episodios al año por cada 100 personas. Tomando la rosuvastatina, el riesgo disminuía hasta 0,17 episodios al año por cada 100 personas. Además, hay que tomar una pastilla diaria, y puede provocar efectos secundarios.

Muchos investigadores creen que la mejor manera de expresar el riesgo es utilizar el «número de necesidad de tratamiento». Es un método muy concreto en el que se calcula cuántos enfermos necesitarían el tratamiento para que una persona se beneficiara de él. Los resultados en el ensayo Jupiter no se notificaron en el trabajo que dio cuenta de los hallazgos definitivos, como «número de necesidad de tratamiento», pero entre la población sujeta a bajo riesgo, calculándolo en un trozo de papel, yo estimo que sería necesario que varios centenares de personas tomaran el tratamiento para prevenir un infarto. Si se toma o no rosuvastatina a diario, sabiendo que existe la posibilidad de obtener algún beneficio del medicamento, es una cuestión que corresponde enteramente al paciente. Yo no sé qué decisión adoptaría, y cada persona es distinta, como se comprueba en el hecho de que hay quien con un riesgo bajo opta por tomar una estatina, pero otros no. Mi única preocupación es que los resultados se expliquen claramente, en los periódicos, en los comunicados de prensa, por boca del médico y en el artículo académico que se publique en revistas médicas.

Vamos a considerar un último ejemplo. Si los resultados del ensayo son realmente un desastre, queda otra opción: se pueden presentar igualmente como si fueran positivos.

Un grupo de investigadores de Oxford y París se dispusieron a examinar sistemáticamente este problema en 2009[41]. Recopilaron los ensayos publicados a lo largo de un mes con resultados negativos, en el sentido correcto de la palabra, es decir, ensayos que especificaban en el protocolo el propósito de detectar un beneficio en los resultados básicos, y no hallaron ningún efecto beneficioso. A continuación examinaron los informes académicos de setenta y dos de esos ensayos para buscar pruebas de «exageración» o intentos de presentar los resultados negativos bajo una luz favorable, o distraer al lector del hecho de que el resultado básico del ensayo era negativo.

En primer lugar revisaron los resúmenes, el extracto que figura en la primera página del trabajo académico, que es lo que más se lee, porque la gente está muy ocupada para leerse todo el artículo o porque no tienen acceso a él mismo si no pagan la suscripción (un verdadero escándalo). Normalmente, leyendo por encima un resumen se espera que se indique la «magnitud del efecto» —«solo 0,85 veces más de infartos en pacientes con nuestro nuevo fármaco sensacional para las cardiopatías»— junto con una indicación de la significación estadística del resultado. Pero en esta muestra representativa de setenta y dos ensayos, todos claramente negativos en cuanto al resultado básico, solo en nueve se citaban esas cifras adecuadamente en el resumen, y en veintiocho no se indicaba el cómputo numérico del resultado básico. Los resultados negativos habían desaparecido.

Pero hay más: solo en dieciséis de esos ensayos negativos se exponía debidamente el resultado negativo del ensayo; en los demás casos no se hacía mención de ello ni siquiera en el cuerpo principal del texto.

¿Qué había, pues, en esos informes? Exageraciones. A veces los investigadores hallaron otro resultado positivo en la hoja de cálculo e hicieron como si fuese ese dato lo único que pretendían recoger como resultado positivo (un truco que ya hemos visto: «cambiar de resultado básico»). A veces notificaron datos de un análisis de subgrupo —otro truco que también hemos visto—; otras afirmaban haber comprobado que su tratamiento «no era inferior» al tratamiento con el que lo comparaban (cuando en realidad un ensayo de «no inferioridad» requiere un muestro más amplio de participantes, porque se puede pasar por alto al azar una auténtica diferencia); y en ocasiones simplemente divagaban descaradamente sobre las bondades del tratamiento pese a tener todas las pruebas en contra.

Este trabajo no es una investigación aislada. En 2009, otro grupo de investigadores examinó los trabajos que notificaban ensayos con gotas oculares de prostaglandinas como tratamiento para el glaucoma[42] (como siempre, la dolencia específica y el tratamiento son irrelevantes; lo importante es el principio). Hallaron treinta y nueve ensayos, de los cuales la abrumadora mayoría estaban financiados por la industria (veintinueve). La conclusión es escalofriante: en dieciocho de veinte financiados por la industria figuraba en el resumen una conclusión que tergiversaba el cómputo del resultado básico. Todos los ensayos no financiados por la industria eran aceptables.

Todo esto es una desvergüenza posible debido a los defectos estructurales en el entramado informativo de la medicina académica. Si no es obligatorio indicar en los trabajos académicos el resultado básico, si se acepta que se cambien por sistema los resultados previstos —sabiendo muy bien que ello distorsiona las estadísticas—, se da pie a que se exageren los resultados. Si no se vinculan claramente los protocolos a los trabajos publicados para poder compararlos unos con otros —y así «dar el pego» en los resultados—, se da pie a exagerar las conclusiones. Si los editores y los revisores entre iguales no exigen que el protocolo previo al ensayo se remita junto con los trabajos que se presentan para poder comprobarlo, consienten que se produzcan cambios en las conclusiones. Al no vigilar el contenido de los resúmenes, se hacen cómplices de esa distorsión de pruebas, lo que a su vez distorsiona la práctica clínica, hace que las decisiones sobre los tratamientos sean arbitrarias en vez de basarse en pruebas, y así se convierten en partícipes del perjuicio causado a los pacientes.

Para terminar, quizás el mayor problema es que muchos de los que leen la bibliografía médica asumen implícitamente que los editores de las publicaciones adoptan las precauciones señaladas, pero se equivocan. No existe una normativa que haga cumplir nada de lo que hemos tratado y cualquiera es libre de hacer caso omiso, por lo que muy a menudo —como sucede con los periódicos, los políticos y los charlatanes— los hechos molestos se despachan alegremente.

Para terminar, lo más preocupante de todo, quizá, es que se ha notificado ese mismo desenfado en revisiones sistemáticas y en metaanálisis, que gozan, no sin razón, de la condición de modalidad más fiable de confirmación. En un estudio se compararon revisiones de ensayos financiados por la industria con revisiones de subvención independiente de Cochrane Collaboration[43]. La conclusión fue que las revisiones financiadas por la industria recomendaban el tratamiento sin reservas, todo lo contrario de los respectivos metaanálisis de Cochrane. Es llamativa esta discrepancia porque no hubo diferencia en las conclusiones numéricas sobre el efecto del tratamiento, sino únicamente en la exageración del redactado discursivo del apartado de conclusiones del trabajo de revisión.

El carácter acrítico de las revisiones financiadas por la industria se confirmaba también en la manera de indicar las carencias metodológicas de los estudios que trataban, y muchas veces ni se referían a ellas. En las revisiones de Cochrane se observó una mayor tendencia a considerar si había riesgo o sesgo en los ensayos; en las revisiones financiadas por la industria, en cambio, esas carencias se pasan por alto. Todo ello supone un elocuente recordatorio de que los resultados de un trabajo científico son mucho más importantes que el redactado del apartado argumentativo. Y es también un elocuente recordatorio de que los sesgos asociados con la financiación de la industria penetran a fondo en el ámbito académico.