На позапрошлой неделе Дарио Амодеи выступил на World Economic Forum и выдал заявление, от которого у многих дернулся глаз: через 6-12 месяцев AI будет делать всё, что делает software engineer. Не «помогать». Не «ускорять». Именно — всё.
Я в беке с 2016 года. Начинал с PHP, потом Python, сейчас в основном бэкенд на разных стеках. За это время нашу профессию хоронили раз пятнадцать: low-code убьёт, no-code добьёт, аутсорс в Индию всех съест. Мы как тот мужик из анекдота про тёщу и два порванных баяна.
Но в этот раз источник заслуживает внимания. Амодеи — не инфоцыган с курсами «войти в айти за три дня». Это человек, который строит одну из самых продвинутых AI-компаний планеты. Когда такие люди делают прогнозы — стоит как минимум разобраться, что за этим стоит.
Давайте разбираться.
Амодеи на WEF заявил буквально следующее: мы находимся в 6-12 месяцах от AI-систем, которые смогут выполнять всё, что делает software engineer.
Параллельно Anthropic выкатили обновлённые бенчмарки для Claude Opus 4.5. Цифры действительно впечатляют: рост по SWE-bench, улучшенная работа с длинным контекстом, способность держать в голове архитектуру больших проектов. То, что раньше было явной слабостью — работа с кодовой базой из 50+ файлов — вроде как подтянули.
Для контекста: SWE-bench — это бенчмарк, где модели дают реальные баг-репорты из открытых проектов и просят написать патч. Задача чётко сформулирована, есть входные данные, есть ожидаемый результат. Claude Opus 4.5 там показывает результаты на уровне 50%+, что ещё год назад казалось фантастикой.
И вот тут начинается самое интересное.
У меня есть знакомый Саша. Год назад устроился в крупную компанию после того, как прошёл все алгоритмические собеседования с блеском. LeetCode hard решал на скорость. А потом три месяца не мог закрыть ни одного тикета в реальном проекте.
Почему? Потому что реальная работа — это не алгоритмы.
SWE-bench тестирует способность модели решать изолированные, чётко сформулированные проблемы. Тебе дают репозиторий, баг-репорт, и ты должен написать патч. Прекрасно. Контролируемая среда, понятные границы.
А теперь моя последняя рабочая неделя.
Понедельник: созвон с продактом, который хочет «чтобы было как в Notion, но не совсем». Сорок минут выясняю, что конкретно он имеет в виду. Выясняется — он сам не знает. Рисую три варианта. Выбирает четвёртый, которого не было.
Вторник: нашёл баг, который воспроизводится только у одного клиента из тысячи. После двух часов дебага понял, что у них в базе данные, которые остались после миграции 2019 года. Автор миграции уволился. Документации? Ха-ха.
Среда: код-ревью. Джун написал рабочий код, но архитектурно это бомба замедленного действия. Объясняю почему. Не понимает. Рисую схемы. Спорим час. В итоге находим компромисс, который устраивает обоих.
Четверг: продакт передумал. Теперь хочет по-другому. Переделываю половину того, что сделал во вторник.
Пятница: деплой. Что-то падает. Откатываемся. Оказывается, изменился API стороннего сервиса, который мы используем. Без предупреждения, естественно. Хотфикс на коленке за два часа.
Где во всём этом место для AI, который «делает всё»?
Я не хочу быть тем занудой, который отрицает очевидное. AI-инструменты реально изменили мою работу за последний год-полтора.
Copilot и Claude для кода. Экономит кучу времени на бойлерплейте. Надо написать 15 похожих тестов с разными параметрами? Справится. CRUD-эндпоинт по шаблону? Легко. Конвертация данных из одного формата в другой? Почти без редактирования.
Я активно использую Claude Code — недавно даже подарил себе подписку Anthropic Max. Собрать прототип сайта за вечер, написать CLI-утилиту, автоматизировать рутину — всё это реально работает. В восторге от возможностей, которые он открывает.
Резиновая уточка с IQ 150. Иногда проще объяснить проблему Claude, чем коллеге. Не перебивает, не уходит на созвон, не говорит «а вот у нас на прошлом проекте...». И часто подсказывает направление, о котором я не подумал.
Рефакторинг по шаблону. «Замени все синглтоны на DI» — получаешь рабочий черновик. Не идеальный, но 80% работы сделано.
Документация. Раньше это была самая ненавистная часть работы. Теперь — просто ненавистная. Прогресс!
Так что да, польза есть. И она заметная. Но.
Веду уже полгода. Не для хейта — пытаюсь понять, где граница.
12 января. Попросил Claude помочь с оптимизацией запроса к PostgreSQL. Предложил добавить индекс. Разумный совет. Только таблица — 800 миллионов записей. Добавление индекса онлайн на нашей версии PG заблокировало бы базу часа на три. Откуда ему это знать? Ниоткуда. А я знаю, потому что год назад уже один раз так попали.
19 января. Дебажил проблему с авторизацией. AI уверенно показывал на конкретный участок кода. Проверил — там всё чисто. Потратил два часа, проверяя его гипотезы. Потом плюнул и пошёл читать логи сам. Оказалось, проблема была в конфиге nginx на другом сервере. AI видел только код, который я ему показал. А баг был снаружи.
25 января. Классика жанра. Прошу исправить баг A. Исправляет, ломает фичу B. Прошу исправить B — ломает A обратно. И так три раза, пока я не понял, что модель не видит связи между этими частями системы, хотя я ей объяснял. Пришлось самому разобраться и дать точечные инструкции.
29 января. Попросил написать интеграцию с внешним API. Получил красивый код, который не работал. Почему? Документация API была кривая (там была ошибка в примере), и AI её честно скопировал. Я-то знаю, что этот API глючный, потому что работал с ним раньше. AI — нет.
1 февраля. Попросил помочь с миграцией базы данных. Модель предложила план, который выглядел логично. Только она не знала, что у нас есть триггеры, которые исторически завязаны на конкретные имена колонок, и их переименование сломало бы половину отчётности. Эта информация была в комментарии к коду трёхлетней давности, который никто не читает.
Паттерн видите?
Всё, что требует контекста за пределами видимого кода — провал. Всё, что требует истории — провал. Всё, что требует знания «этот сервис всегда врёт в логах» или «этот клиент никогда не обновляет браузер» — провал.
Софт — это не просто код. Софт — это история решений.
Почему этот сервис на Python, хотя по нагрузке просится Go? Потому что три года назад единственный гофер уволился через месяц после старта проекта.
Почему здесь странный воркэраунд с таймаутом в 47 секунд? Потому что у ключевого клиента прокси режет соединения ровно на 50, и мы вычислили это в 3 часа ночи после инцидента.
Почему этот микросервис называется legacy-bridge-temp-v2-final? Лучше не спрашивай.
Где это записано? Нигде. Это в головах. В Slack-переписках за 2021 год. В Jira-комментариях, которые никто не читает. В памяти тех, кто был там.
AI этого не знает. И не узнает, пока вы не скормите ему всю историю компании, включая неформальные разговоры на кухне.
Я много думал и немного писал на хабре про память в современных AI — ChatGPT и Claude ведут списки фактов о пользователе и ищут по истории чатов. Это полезно, но до полной адаптации ещё далеко. Модели часто зацикливаются на одном-двух фактах, плохо понимают контекст. Сэм Альтман говорил, что текущая память — лишь прототип, а в GPT-6 попробуют реализовать полную подстройку под пользователя. Посмотрим.
Я не циник. Но я работал достаточно долго, чтобы понимать, как работают корпоративные коммуникации.
Anthropic — компания, которая поднимает миллиарды долларов инвестиций. Они конкурируют с OpenAI и Google. Каждое публичное заявление CEO на World Economic Forum — это в том числе маркетинг.
Когда Амодеи говорит «через год заменим программистов», что слышит CTO крупной компании? «Надо срочно внедрять AI, пока конкуренты не обогнали.» Что слышит инвестор? «Рынок огромный, надо вкладываться.»
Это не значит, что Амодеи врёт. Возможно, он искренне верит в то, что говорит. Но у него есть структурные причины быть оптимистом. У меня таких причин нет.
Для контекста: у OpenAI по 2028 год включительно ожидаются кумулятивные операционные убытки в $115-143 млрд. Безубыточность планируется в 2029 году, для чего компании надо выходить на выручку в 125-200 миллиардов долларов. Сейчас выручка — около 13 млрд. AI-компании отчаянно нуждаются в том, чтобы рынок верил в их будущее.
Вспомните прогнозы 2015 года про беспилотные автомобили. «Через пять лет все будут ездить на робомобилях!» Прошло десять. Waymo работает в нескольких городах. Tesla до сих пор требует держать руки на руле. До массового внедрения — как до Луны.
Между «технически возможно в лабораторных условиях» и «работает в масштабе» — пропасть.
Окей, допустим AI начнёт делать всю «чёрную работу». Джуниорские позиции исчезнут. Стажировки уйдут в прошлое. Компании перестанут нанимать новичков, потому что дешевле и быстрее использовать AI.
И кто через десять лет будет сеньорами?
Я стал тем, кем стал, потому что написал тонну плохого кода. Мои решения ломали прод. Я сидел до трёх ночи, разбираясь, почему не работает то, что должно работать. Я получал на код-ревью комментарии «это категорически неприемлемо» — и учился.
Без этого опыта я бы не понимал, почему какие-то архитектуры — бомба замедленного действия. Не чувствовал бы, где система может сломаться. Не знал бы, какие вопросы задавать.
Если джуны не пишут код — они не станут миддлами. Если миддлы не архитектурят — они не станут сеньорами. Останемся мы — поколение, которое училось «по-старому».
А потом уйдём на пенсию.
Может, к тому времени AI будет достаточно умным. А может, окажется, что вырастили поколение людей, которые умеют промптить, но не понимают, как работают системы.
С другой стороны, я часто читаю, что AI-first компании, наоборот, любят нанимать джунов — они быстрее и лучше осваивают AI-инструменты. Не исключено, что это выход. Или рынок сложится как-то совершенно иначе.
Есть интересная теория, которую недавно обсуждал сооснователь Django Саймон Уилсон. Парадокс Джевонса — когда ресурс становится эффективнее за счёт технологий, спрос на него не падает, а растёт. Когда в XIX веке паровые двигатели стали эффективнее, потребление угля не упало, а взлетело.
Может ли это сработать для программирования?
Смотрите, возможны два варианта:
— AI делает код дешевле в 10 раз → спрос на программистов падает в 10 раз.
— AI делает код дешевле в 10 раз → небольшие компании и даже одиночки начинают заказывать кастомный софт под свои задачи → спрос на программистов взрывается.
Программирование всю историю шло по пути упрощения. Когда в 1950-е Грейс Хоппер продвигала компиляторы, это встречало огромное сопротивление. «Код будет медленным и нестабильным!» К концу 1950-х более половины кода в IBM писалось на Fortran. Вход в профессию стал проще, разработка — доступнее.
При этом ассемблерщики не пострадали. Сегодня их, вероятно, даже больше, чем в начале 50-х — низкоуровневое программирование критично для ядер ОС, драйверов, embedded-систем.
Раньше огромное количество средних и небольших бизнесов не могли позволить софт под собственные запросы. Теперь что-то приличное можно сделать даже самому, оплатив подписку на AI. При этом кто-то сделает сам, кто-то заплатит профессионалу — который с помощью той же нейронки соберёт ещё быстрее и лучше.
Последний крупный проект. Без NDA-деталей.
Задача: разбить монолит на микросервисы.
Первый месяц: понять, где проводить границы. Это не техническое решение — это бизнесовое. Какие части системы развиваются независимо? Какие команды за что отвечают? Где узкие места? Какие клиенты чем пользуются?
Второй месяц: политика. Два отдела, которые исторически не ладят, должны договориться об API. Час переговоров. Компромиссы. «Вася, ну мы же работаем вместе, зачем ты опять...»
Третий месяц: легаси. Компонент 2014 года. Автор уволился. Никто не знает, как работает. Но от него зависит критический бизнес-процесс. Переписывать? Обернуть? Частичный рефакторинг? Trade-offs везде.
Четвёртый месяц: плавная миграция. Канареечные релизы. Мониторинг. Feature flags. Откаты.
Пятый месяц: первый большой инцидент на новой архитектуре. Три часа разбирательств ночью. Выясняется, что один из микросервисов под нагрузкой ведёт себя не так, как в тестах. Потому что в тестах мы не учли паттерн запросов реальных пользователей.
Где здесь «AI делает всё»?
AI заберёт рутину. Уже забирает. И это хорошо.
Граница между «кодом» и «спецификацией» размоется. Вместо «напиши функцию» — «сделай так, чтобы пользователь мог X».
Ценность программиста сдвинется от «умеет писать код» к «понимает системы» и «умеет формулировать задачи».
Часть людей потеряет работу. Особенно те, кто занимается чистой имплементацией без понимания контекста.
Потребность в людях, которые принимают решения, берут ответственность и разгребают бардак реальных систем — не исчезнет.
По крайней мере, не через год.
Осваивать AI-инструменты. Те, кто освоят раньше — получат преимущество. Я уже писал: чтобы стать эффективнее с помощью AI, нужно понимать его устройство. Знать про knowledge cutoff, уметь промптить, валидировать результаты.
Андрей Карпати недавно написал, что впервые в карьере чувствует себя «отстающим» — профессия резко меняется, и надо осваивать новый слой поверх обычной разработки: агенты, промпты, контекст, интеграции.
Качать то, что AI не умеет. Понимание систем. Коммуникация. Решения в условиях неопределённости. Объяснение сложного простым языком. Переговоры с людьми.
Документировать. Если понимаете, как работает система — это ценно. Пока в голове — вы незаменимы. Когда записано — AI сможет использовать. Но записывать всё равно нужно.
Следить без паники. Читать не заголовки, а технические детали. Понимать, что реально работает, а что — маркетинг.
Экспериментировать. Попробуйте Claude Code на реальном проекте. Попробуйте навайбкодить что-то своё. Поймите на практике, где AI справляется, а где — нет.
Отдельно скажу про тренд, который вижу всё чаще. Люди с помощью Claude Code и подобных инструментов собирают приложения для себя — от управления умным домом до хитрых надстроек над банковским софтом.
Это круто. Но есть обратная сторона.
Каким бы кривым ни было официальное приложение, ответственность за его работу несёт компания. Что-то пошло не так — обращаемся в поддержку или идём в суд. Когда приложение криво завайбкодили вы сами — отвечать вам.
И хорошо, если оно просто моргает светом. А если заблокирует входную дверь? Или выставит отопление на максимум ночью? Про дыры в безопасности я молчу.
Выходов два. Во-первых, не забывать использовать AI для тестирования — хотя бы попросить ту же нейронку прогнать базовые тесты. Во-вторых, уверен, что появятся приложения с «AI-слоем» — профессионал отвечает за движок, а пользователь с помощью нейронки создаёт интерфейс под свои задачи.
Через год мы НЕ останемся без работы. ИМХО уверен в этом на 85%.
Через пять лет работа будет выглядеть иначе. Через десять — совсем иначе.
Так было всегда. Просто скорость изменений выше.
Амодеи, возможно, прав насчёт технических возможностей. Через год AI, может, и будет генерировать код на уровне среднего инженера.
Но генерировать код ≠ быть инженером.
Инженер разбирается в бардаке. Принимает решения, когда нет чёткого ответа. Объясняет бизнесу, почему это займёт три месяца, а не неделю. Отвечает за последствия. Договаривается с людьми. Помнит, почему три года назад решили сделать именно так.
AI пока не отвечает за последствия. AI пока не помнит контекст. AI пока не умеет договариваться с Васей из соседнего отдела.
Когда научится — тогда и поговорим.
P.S. Если считаете, что я чего-то не вижу — напишите в комментариях. Серьёзно интересно. Я могу ошибаться, и было бы полезно услышать другие точки зрения.
Иногда пишу про такое в токены на ветер — иногда о том, как LLM думают, или просто притворяются.
Источник


