La mayoría de los estudios científicos "son falsos", advierte un investigador



[ad_1]

Estados Unidos .- Hace unos años, dos investigadores seleccionaron los 50 ingredientes más utilizados en un libro de cocina y analizaron el número de ellos asociados con un riesgo o beneficio contra cáncer en varios estudios publicados en revistas científicas.

La respuesta: 40 de 50, una lista que incluye sal, harina, perejil y azúcar. "Todo lo que comemos está relacionado con el cáncer", capricho en su artículo de 2013.

Su pregunta está relacionada con un problema conocido pero persistente en el mundo de la investigación: muchos estudios usan las muestras también. pequeño para llegar a conclusiones generalizables.

Pero la presión sobre los investigadores, la competencia entre revistas y el apetito insaciable de los medios por los estudios que anuncian revoluciones o grandes descubrimientos hacen que estos artículos continúen publicándose.

"La mayoría de los artículos publicados, incluso en revistas serias, son poco estrictos", dice uno de los autores, John Ioannidis, profesor de medicina en Stanford, que se especializa en estudiar estudios.

Este detractor de la mala investigación científica demostró en un artículo de 2005 "por qué la mayoría de los estudios publicados son erróneos".

Desde entonces, dice, solo se han hecho algunos progresos.

Algunas revistas requieren que los autores proporcionen sus datos brutos y publiquen su protocolo con anticipación. Esta transparencia evita que los investigadores tuerzan sus métodos y datos para encontrar un resultado, sin importar qué.

También permite que otros verifiquen o "repliquen" el estudio.

Porque cuando se vuelven a hacer, los experimentos raramente conducen a los mismos resultados.

Solo un tercio de los 100 estudios publicados en las tres revistas de psicología más prestigiosas fueron reproducidos por investigadores en un análisis publicado en 2015.

Medicina, Epidemiología, ensayos clínicos de medicamentos y estudios nutricionales no funciona mucho mejor, insiste Ioannidis, especialmente durante los ensayos.

"En las ciencias biomédicas y en otros lugares, los científicos no se entrenan lo suficiente en estadística y metodología", agrega.

Demasiados estudios se centran en unos pocos individuos, por lo que es imposible generalizar a una población total, ya que es poco probable que los participantes seleccionados sean representativos.

Café y vino tinto [19659002] "La dieta es una de las áreas más lamentables", continúa el profesor Ioannidis, y no solo por los conflictos de interés con el # 39, industria agroalimentaria.

Los investigadores a menudo buscan correlaciones en enormes bases de datos, sin una suposición básica.

Además, "medir una dieta es extremadamente difícil", explica. ¿Cómo cuantificar exactamente qué come la gente?

Incluso cuando el método es bueno, con un estudio aleatorizado donde los participantes se eligen al azar, la ejecución a veces deja algo que desear.

Un famoso estudio de 2013 sobre los beneficios de la dieta mediterránea sobre la enfermedad cardíaca tuvo que ser retirado en junio por la prestigiosa revista médica The New England Journal of Medicine, porque los participantes tenían no reclutado al azar; los resultados han sido revisados ​​a la baja.

Entonces, ¿qué elegir en la avalancha de estudios publicados todos los días?

Ioannidis recomienda hacer las siguientes preguntas: ¿Es un estudio aislado o fortalece los trabajos existentes? ¿La muestra es pequeña o grande? ¿Es una experiencia aleatoria? ¿Quién financió? ¿Los investigadores son transparentes? la adopción de tratamientos en el mejor de los casos ineficaces y, en el peor, perjudiciales.

En su libro "Ending Medical Reversal", Vinayak Prasad y Adam Cifu vinculan ejemplos terribles de prácticas adoptadas sobre la base de estudios que fueron invalidados años después, como la colocación stents en una arteria del cerebro para reducir el riesgo de accidente cerebrovascular.

Diez años más tarde, un estudio riguroso mostró que la práctica aumentaba el riesgo de accidente cerebrovascular.

La ​​solución requiere el ajuste colectivo de criterios comunes para los actores de la investigación, no solo revistas: universidades, agencias de financiación pública, laboratorios.

Pero todas estas entidades están sujetas a la competencia.

"El sistema no alienta a las personas a ir en la dirección correcta", dice Ivan Oransky, cofundador del sitio web Retraction Watch, que cubre retiros de artículos científicos.

"Queremos desarrollar una cultura en la que premiemos la transparencia".

Los medios también tienen su parte de responsabilidad porque, según él, deben explicar mejor a sus lectores las incertidumbres inherentes a la investigación científica y evitar el sensacionalismo.

"El problema es la interminable sucesión de estudios sobre el café, el chocolate y el vino tinto", se queja. "Tenemos que parar".

[ad_2]
Source link