Tecnología

Las herramientas de IA pueden debilitar la calidad de la investigación publicada, advierte el estudio

Número de publicaciones por año: a) Análisis de NHANES de un solo factor identificados en esta revisión b) Publicaciones totales por año identificadas por una búsqueda de PubMed de “BioBank”.

La inteligencia artificial podría estar afectando el rigor científico de la nueva investigación, según un estudio de la Universidad de Surrey.

El equipo de investigación ha pedido una variedad de medidas para reducir la avalancha de artículos de “baja calidad” y “ciencia ficción”, incluidos procesos de revisión por pares más fuertes y el uso de revisores estadísticos para conjuntos de datos complejos.

En un estudio publicado en PLOS Biology, los investigadores revisaron documentos que proponen una asociación entre un predictor y una condición de salud que utiliza un conjunto de datos del gobierno estadounidense llamado la Encuesta Nacional de Examen de Salud y Nutrición (NHANES), publicada entre 2014 y 2024.

Nhanes es un conjunto de datos grande y disponible públicamente utilizado por investigadores de todo el mundo para estudiar vínculos entre condiciones de salud, estilo de vida y resultados clínicos. El equipo encontró que entre 2014 y 2021, solo cuatro estudios basados ​​en la Asociación Nhanes se publicaron cada año, pero esto aumentó a 33 en 2022, 82 en 2023 y 190 en 2024.

El Dr. Matt Spick, coautor del estudio de la Universidad de Surrey, dijo: “Si bien la IA tiene el claro potencial de ayudar a la comunidad científica a hacer avances que benefician a la sociedad, nuestro estudio ha encontrado que también es parte de una tormenta perfecta que podría dañar los fundamentos del rigor científico.

“Hemos visto un aumento en los documentos que parecen científicos pero no se mantienen bajo escrutinio; esta es la ‘ciencia ficción’ utilizando conjuntos de datos de salud nacionales para disfrazarse de hecho científico. El uso de estos conjuntos de datos de fácil acceso a través de API, combinados con grandes modelos de idiomas, es abrumador de algunas revistas y revisores de pares, reduciendo su capacidad para evaluar más significativas investigaciones, y finalmente debilitando la calidad de la calidad de la ciencia en general”. “.”

El estudio encontró que muchos documentos posteriores a 2021 utilizaron un enfoque superficial y de análisis excesivo para el análisis, a menudo centrándose en variables individuales mientras ignoran las explicaciones más realistas y multifactor de los vínculos entre las condiciones de salud y las causas potenciales.

Algunos documentos selvieron subconjuntos de datos estrechos sin justificación, lo que plantea preocupaciones sobre la mala práctica de la investigación, incluido el dragado de datos o las preguntas de investigación cambiantes después de ver los resultados.

Tulsi Suchak, investigador de posgrado en la Universidad de Surrey y autor principal del estudio, agregó: “No estamos tratando de bloquear el acceso a los datos o detener a las personas que usan IA en su investigación: estamos solicitando algunas comprobaciones de sentido común. Esto incluye cosas como estar abiertas sobre cómo se usan los datos, asegurándose de que los revisores con la experiencia adecuada estén involucradas y señalamos cuando un estudio solo mira una pieza del rompecabezas.

“Estos cambios no necesitan ser complejos, pero podrían ayudar a las revistas a detectar trabajos de baja calidad antes y proteger la integridad de la publicación científica”.

Para ayudar a abordar el problema, el equipo ha establecido una serie de pasos prácticos para revistas, investigadores y proveedores de datos. Recomendan que los investigadores usen los conjuntos de datos completos disponibles para ellos a menos que haya una razón clara y bien explicada para hacer lo contrario, y que son transparentes sobre qué partes de los datos se usaron, durante qué períodos de tiempo y para qué grupos.

Para las revistas, los autores sugieren fortalecer la revisión por pares al involucrar a los revisores con experiencia estadística y hacer un mayor uso del rechazo temprano del escritorio para reducir el número de documentos formulados o de bajo valor que ingresan al sistema. Finalmente, proponen que los proveedores de datos asignen números o ID de aplicación únicos para rastrear cómo se utilizan conjuntos de datos abiertos, un sistema que ya está en su lugar para algunas plataformas de datos de salud del Reino Unido.

Anietie E. Aliu, coautora del estudio y estudiante de posgrado en la Universidad de Surrey, dijo: “Creemos que en la era de la IA, la publicación científica necesita mejores barandillas. Nuestras sugerencias son cosas simples que podrían ayudar a evitar que los estudios débiles o engañosos se deslicen, sin bloquear los beneficios de la IA y los datos abiertos.

“Estas herramientas están aquí para quedarse, por lo que debemos actuar ahora para proteger la confianza en la investigación”.

Más información: Tulsi Suchak et al, Explosión de artículos de investigación fórmula, incluidos diseños de estudio inapropiados y descubrimientos falsos, basados ​​en la Base de datos nacional de salud de NHANES US, PLoS Biology (2025). Doi: 10.1371/journal.pbio.3003152

Proporcionado por la Universidad de Surrey

Cita: las herramientas de IA pueden estar debilitando la calidad de la investigación publicada, el estudio advierte (2025, 12 de mayo) recuperado el 12 de mayo de 2025 de https://techxplore.com/news/2025-05-ai-tools-wakinging- Quality-Published.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button