BitcoinWorld
ArXiv Prohibirá a los Autores Durante un Año si Envían Artículos Generados por IA Sin Revisión Humana
ArXiv, el ampliamente utilizado repositorio de acceso abierto para investigaciones en preimpresión, ha anunciado una nueva política que podría resultar en una prohibición de un año para los autores que envíen artículos con evidencia clara de contenido generado por IA sin verificar. La medida, presentada el jueves por Thomas Dietterich, presidente de la sección de ciencias de la computación de ArXiv, apunta al creciente problema de investigaciones de baja calidad producidas por IA que socavan la confianza en la publicación científica.
Según las directrices actualizadas, si los moderadores encuentran "evidencia irrefutable" de que los autores no verificaron el resultado de los modelos de lenguaje de gran escala (LLM) antes de la presentación, el artículo será rechazado y los autores se enfrentarán a una suspensión de un año para publicar en ArXiv. Tras la prohibición, los autores deberán tener sus envíos posteriores aceptados por una publicación de revisión por pares de reputación antes de regresar a la plataforma.
Dietterich especificó que dicha evidencia incluye referencias fabricadas, citas sin sentido o errores directos de copiar y pegar de un LLM. La política no prohíbe completamente el uso de herramientas de IA; más bien, hace a los autores "totalmente responsables" de todo el contenido, independientemente de cómo fue generado. Esto incluye plagio, declaraciones sesgadas e inexactitudes factuales introducidas por la IA.
ArXiv ha sido durante mucho tiempo un pilar de la difusión rápida de investigaciones, especialmente en ciencias de la computación, matemáticas y física. Sin embargo, el auge de la IA generativa ha llevado a un aumento en los envíos que parecen producidos con una supervisión humana mínima. Estudios recientes revisados por pares han documentado un incremento en citas fabricadas en la literatura biomédica, probablemente vinculado al uso de LLM.
Al aplicar esta regla de una sola falta, ArXiv pretende preservar la credibilidad de su repositorio. La política también incluye un proceso de apelación, que permite a los autores impugnar las decisiones. Los moderadores deben primero señalar los problemas, y los presidentes de sección deben confirmar la evidencia antes de que se apliquen las sanciones.
Esta política refleja un consenso creciente en la academia de que las herramientas de IA deben asistir, no reemplazar, la supervisión humana en la investigación. La transición de ArXiv a una organización sin fines de lucro independiente, tras ser alojada por la Universidad de Cornell durante más de dos décadas, le otorga mayor flexibilidad para aplicar dichas medidas. El repositorio ya ha tomado medidas para frenar los envíos generados por IA, incluida la exigencia de avales para los publicadores por primera vez.
Para los investigadores, el mensaje es claro: usar IA para redactar o pulir el lenguaje es aceptable, pero enviar trabajos sin una rigurosa verificación de hechos y verificación de citas no lo es. Esto se alinea con los estándares editoriales más amplios en la publicación científica, donde la responsabilidad sigue siendo primordial.
La nueva política de prohibición de ArXiv representa un paso significativo para mantener la integridad de la investigación en preimpresión en una era de uso generalizado de IA. Al penalizar a los autores que no revisan el contenido generado por IA, el repositorio refuerza el principio de que los investigadores humanos son los últimos responsables de su trabajo. A medida que las herramientas de IA se integran más en el proceso de investigación, dichas medidas de protección probablemente se convertirán en estándar en la publicación académica.
P1: ¿La nueva política de ArXiv prohíbe el uso de IA en la redacción de artículos?
No, no prohíbe el uso de IA. Prohíbe la presentación de artículos con evidencia clara de que los autores no verificaron el contenido generado por IA en busca de errores, como referencias fabricadas o texto sin sentido.
P2: ¿Qué cuenta como "evidencia irrefutable" del mal uso de la IA?
Los ejemplos incluyen citas alucinadas, referencias a fuentes inexistentes y errores directos de copiar y pegar de un LLM que indican que no tuvo lugar ninguna revisión humana.
P3: ¿Pueden los autores apelar una prohibición?
Sí, la política incluye un proceso de apelación. Los moderadores deben señalar el problema, los presidentes de sección confirman la evidencia y los autores pueden impugnar la decisión.
Esta publicación ArXiv Prohibirá a los Autores Durante un Año si Envían Artículos Generados por IA Sin Revisión Humana apareció primero en BitcoinWorld.


