Cientos de revistas científicas bajo la lupa: la IA revela cuáles podrían ser “depredadoras”

Cientos de revistas científicas bajo la lupa: la IA revela cuáles podrían ser “depredadoras”
Cientos de revistas científicas bajo la lupa: la IA revela cuáles podrían ser “depredadoras”

El mundo académico enfrenta un problema serio: las revistas científicas depredadoras.

Estas publicaciones cobran a los investigadores cientos o miles de dólares por “publicar” estudios sin pasar por una revisión rigurosa.

Ahora, un equipo de la Universidad de Colorado en Boulder decidió poner a trabajar a la inteligencia artificial para detectar cuáles son confiables y cuáles no.

La investigación, publicada en Science Advances, analizó casi 15,200 revistas de acceso abierto.

El resultado fue sorprendente: más de 1,400 fueron marcadas por la IA como “potencialmente problemáticas”.

Daniel Acuña, profesor de Ciencias de la Computación y autor principal del estudio, explicó que el objetivo era crear una herramienta que filtre automáticamente estas publicaciones, evaluando desde la calidad de los textos en sus sitios web hasta la solidez de sus consejos editoriales.

Aunque la herramienta cometió errores —detectó unas 350 revistas como sospechosas cuando en realidad eran legítimas— el análisis final arrojó que más de mil publicaciones sí presentaban características de riesgo.

El problema no es menor. “En ciencia no se empieza desde cero, se construye sobre lo que otros ya han investigado. Si esos cimientos se derrumban, todo se viene abajo”, advirtió Acuña.

El fenómeno de las revistas depredadoras no es nuevo.

Desde 2009 se usa este término para describir a aquellas que, sin ofrecer revisión por pares ni servicios editoriales reales, publican investigaciones a cambio de dinero.

Suelen enfocarse en países donde la presión por publicar es alta, como China, India o Irán.

La IA, en este caso, no pretende reemplazar a los expertos, sino ayudarlos a preseleccionar entre miles de publicaciones y hacer el proceso más rápido y transparente.

“No queríamos una caja negra como otras plataformas”, aclaró Acuña, en referencia a sistemas como ChatGPT.

El hallazgo deja en claro que la ciencia necesita vigilancia constante.

Y, al menos esta vez, la tecnología está ayudando a separar la investigación real de las trampas disfrazadas de seriedad.

Con información de La Jornada.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Compartir en:

noticias relacionadas