В комментариях к статьям всё чаще всплывает спор: использование LLM — это обман или нормальный инструмент автора?
Кстати, многие из этих авторов начинали писать ещё до появления нейросетей, мессенджеров и соцсетей. Они учились разбираться в теме, писать, редактировать, попадать в тон. Серьёзно ли считать, что использование LLM автоматически означает, будто автор перестал разбираться в теме?
Для меня (и, думаю, для большинства авторов) главное — донести мысль до читателя. А уж как эта мысль «завёрнута» в текст — дело второстепенное… до тех пор, пока этот текст вообще читают.
Далеко ходить не надо. На Хабре есть метрики: какие статьи читают, какие плюсуют, до какого места доходят. Как пролистывают. Когда уходят не дочитав.
Можно написать монолитную «портянку» с отличными идеями — без абзацев и подзаголовков, сухим языком, формально без ошибок.
И что? Такую статью просто не дочитают.
А можно пропустить тот же черновик через LLM с чётким промптом:
И внезапно — тот же контент читается. Растут дочитывания, растёт рейтинг. Почему?
Потому что форма перестаёт мешать смыслу.
Предполагаю, что грамотные авторы, у которых есть что сказать читателю, давно уже используют LLM в своей работе — но публично это обсуждать не принято. Тема чувствительная, а отношение площадок и модерации к «нейротекстам» часто негативное.
Генерация смысла вместо автора — плохая идея. Редактура нейросетями — всё ещё спорная зона. Лёд тонкий: где «можно улучшить читабельность», а где уже «переписали за автора» — общего понимания нет.
Конечно, я понимаю скепсис читателя. Куча безликих «ИИ‑текстов», написанных ради галочки, раздражает всех. Но проблема там обычно не в инструменте — а в отсутствии мысли.
LLM работает «спарринг-партнером» и критиком;
превращает черновик в чистовик;
снимает рутину первичной редактуры;
упрощает и структурирует сложное.
Где нормальный автор не использует LLM:
не просит придумывать идеи/выводы;
не просит подгонять факты;
не просит писать про то, чего сам не делал;
все числа/утверждения, которые могут быть проверены, проверяет вручную;
код/команды — только после теста.
Какие ИИ‑тексты бесят — и почему:
одинаковый безликий тон;
«много слов, мало смысла»;
общие места вместо конкретики;
нестыковки и галлюцинации;
отсутствие личного опыта/пруфов.
Вредные советы — LLM у ленивого автора:
пишет текст целиком, выдумывая факты;
полностью определяет, о чем и в каком порядке будет статья;
текст копируется из чата сразу в статью;
вместо технических деталей льет общие фразы про «важность инновационных технологий»;
статья не вычитывается автором с критическим взглядом.
Главное — смысл
Как автор, я стараюсь, чтобы форма не мешала смыслу. Нулевая идея, умноженная на миллион красивых фраз, — всё равно ноль. Гениальная мысль в невнятной, нечитаемой обёртке — так и останется неуслышанной.
Приведу пример из своего опыта — парное программирование. Если не пробовали, очень советую: оно неожиданно сильно меняет качество и скорость принятия решений. Я не знаю, как так происходит, но «1+1 программист = 10 программистов». Смешной парадокс. Двоичный или десятичный?
Так вот: в написании программ в виде LLM я получил себе такого напарника, который усиливает код, который я пишу, не в 2 раза, а в 10 раз. И который не спит, не матерится, думает быстрее меня, может предложить альтернативы — но идеи, решение и ответственность на мне.
С ИИ‑напарником я пишу код качественно иного уровня, потому что он закрывает мои слабые места: невнимательность и лень писать документацию.
С написанием текстов происходит то же самое. Как автор с многолетним стажем, я уверен: даже если правила по применению LLM смягчат, читатели сами отлично отфильтруют мусорный контент минусами, плюсами и банхаммером.
Мир меняется. Инструменты — тоже. Для меня важно не то, чем именно пишут авторы, а что именно говорят авторы.
Текст набран вручную, структура моя, мысли мои. Орфография проверена LLM. Текст причёсан типографом Хабра. Картинка — NanoBanana. И да, пока еще я остаюсь автором, который прочувствовал все, о чем пишет, а не промпт‑инженером безликого и унылого контента. И надеюсь, так будет и дальше.
P. S. Для дочитавших статью до конца бонус - промпт для LLM:
Источник

