BitcoinWorld
ArXiv будет блокировать авторов на один год, если они публикуют статьи, сгенерированные ИИ, без проверки человеком
ArXiv, широко используемый репозиторий открытого доступа для препринтов научных работ, объявил о новой политике, которая может привести к годовой блокировке авторов, публикующих статьи с явными признаками непроверенного контента, сгенерированного ИИ. Об этом в четверг сообщил Томас Дитрих, председатель секции компьютерных наук ArXiv. Мера направлена против растущей проблемы низкокачественных исследований, созданных с помощью ИИ, которые подрывают доверие к научным публикациям.
Согласно обновлённым правилам, если модераторы обнаружат «неопровержимые доказательства» того, что авторы не проверили результаты работы больших языковых моделей (LLM) перед подачей, статья будет отклонена, а авторы столкнутся с годовой приостановкой публикаций на ArXiv. После окончания блокировки авторы должны иметь последующие публикации, принятые авторитетным рецензируемым изданием, прежде чем вернуться на платформу.
Дитрих уточнил, что такими доказательствами являются сфабрикованные ссылки, бессмысленные цитаты или прямые ошибки копирования из LLM. Политика не запрещает использование инструментов ИИ полностью; скорее, она возлагает на авторов «полную ответственность» за весь контент, независимо от способа его создания. Это включает плагиат, предвзятые утверждения и фактические неточности, привнесённые ИИ.
ArXiv давно является краеугольным камнем оперативного распространения исследований, особенно в области компьютерных наук, математики и физики. Однако развитие генеративного ИИ привело к всплеску публикаций, которые, по всей видимости, создаются при минимальном участии человека. Недавние рецензируемые исследования зафиксировали рост числа сфабрикованных цитат в биомедицинской литературе, что, вероятно, связано с использованием LLM.
Введя это правило «одного нарушения», ArXiv стремится сохранить авторитет своего репозитория. Политика также предусматривает процедуру обжалования, позволяющую авторам оспаривать решения. Модераторы должны сначала выявить нарушения, а председатели секций — подтвердить доказательства, прежде чем будут применены санкции.
Эта политика отражает растущий консенсус в академическом мире о том, что инструменты ИИ должны помогать, а не заменять человеческий надзор в исследованиях. Переход ArXiv в статус независимой некоммерческой организации после более чем двух десятилетий работы под эгидой Корнеллского университета даёт ему больше гибкости для применения подобных мер. Репозиторий уже принял меры по ограничению публикаций, созданных ИИ, в том числе ввёл требование поручительства для новых авторов.
Для исследователей посыл ясен: использовать ИИ для составления или редактирования текста допустимо, но публиковать работу без тщательной проверки фактов и верификации цитат — нет. Это согласуется с более широкими редакционными стандартами в научных публикациях, где ответственность остаётся первостепенной.
Новая политика блокировок ArXiv представляет собой значительный шаг в сохранении целостности препринтных исследований в эпоху широкого использования ИИ. Налагая санкции на авторов, которые не проверяют контент, созданный ИИ, репозиторий укрепляет принцип, согласно которому исследователи-люди несут конечную ответственность за свои работы. По мере того как инструменты ИИ всё глубже интегрируются в исследовательский процесс, подобные ограждения, вероятно, станут стандартом в академических публикациях.
В1: Запрещает ли новая политика ArXiv использование ИИ при написании статей?
Нет, она не запрещает использование ИИ. Она запрещает публикацию статей с явными признаками того, что авторы не проверили контент, сгенерированный ИИ, на наличие ошибок, например сфабрикованных ссылок или бессмысленного текста.
В2: Что считается «неопровержимым доказательством» злоупотребления ИИ?
Примеры включают галлюцинированные цитаты, ссылки на несуществующие источники и прямые ошибки копирования из LLM, свидетельствующие об отсутствии проверки человеком.
В3: Могут ли авторы обжаловать блокировку?
Да, политика предусматривает процедуру обжалования. Модераторы должны зафиксировать нарушение, председатели секций — подтвердить доказательства, а авторы могут оспорить решение.
Эта публикация ArXiv будет блокировать авторов на один год, если они публикуют статьи, сгенерированные ИИ, без проверки человеком впервые появилась на BitcoinWorld.


