Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке»Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке»

Братство нейросети: итоги сезона «ИИ в разработке»

2026/01/30 19:14
25м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу crypto.news@mexc.com

Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке» пробовали ИИ в самых разных ролях: от экзаменационного ассистента до соавтора open source проектов. Наши герои создавали игру для ребёнка с помощью ИИ (отдельный респект за попытку объяснить шестилетнему ребёнку схему разработки), вайб-кодили инструмент для поиска снимков в собственном фотоархиве (разобрать фото — наверняка боль для многих…), проектировали вибрационный вариометр для парапланеризма.

Где‑то ИИ честно экономил десятки часов и помогал одному человеку тянуть проекты «на уровне команды», а где‑то превращал разработку в шаманство с бубном, обнулял оценки в экзаменационной ведомости и выключал аэродинамику одной строкой.

Пришло время подвести итоги!

Статистика сезона и какие модели использовали участники

Участники сезона «ИИ в разработке» представили много самых разных примеров использования искусственного интеллекта, рассказали об интересных проектах, но победителями стали лишь 15 авторов. Чем же они пользовались в работе? Посмотрим на статистику упоминаний среди статей победителей:

  • Qwen (27)

  • Claude (24)

  • Cursor (17)

  • GigaChat (14)

  • OpenAI (12)

  • DeepSeek (11)

  • GigaAM (10)

  • Gemini (9)

Отдельной линией сезона стало практическое использование отечественных открытых моделей — не в лабораторных условиях, а в реальных сценариях разработки. Накануне старта сезона Сбер выкатил веса моделей в открытый доступ. В open source ушли GigaChat 3 Ultra Preview на 702B параметров, подходящая для локального использования в качестве ассистента GigaChat Lightning, набор из пяти моделей для распознавания речи GigaAM-v3, Kandinsky 5.0 и Автокодировщик K-VAE 1.0 для ускорения генеративного AI.

Одним из первых @konstantin_kozhin захотел проверить их в реальном сценарии. Так, он разработал Telegram-бота для преобразования голосовых сообщений в текст, использовав модель GigaAM-v3. Почему бы, собственно, не воспользоваться расшифровщиком в премиум-аккаунте в ТГ? Потому что он не работает с произвольными файлами и не способен «переварить» длинные сообщения.

А хабрапользователь @golangloves протестировал версию Lightning, сравнил бенчмарки с Qwen и показал, как запустить модель без затрат на железо. Автор отметил, что для задач на русском языке и работы с длинными контекстами Lightning — одна из лучших открытых моделей в своём классе. Вот здесь можно почитать результаты эксперимента. Статьи @konstantin_kozhin и @golangloves вошли в топ-15 лучших в сезоне по рейтингу.

Наши победители сумели вовлечь хабрапользователей в активное обсуждение темы. Именно признание сообщества — главная ценность сезона. Комментаторы на Хабре традиционно выступили в роли ревью-комитета, и часть проектов стала лучше именно благодаря участию сообщества: здесь подсказывали, спорили, совершенствовали код, помогали доводить проекты до ума. Но есть и материальные призы: топ-5 авторов получат по 50 000 рублей, ещё 10 участников — по 25 000 рублей.

Суммарно статьи собрали 808 плюсов, 1281 добавление в избранное и 632 комментария.

Под спойлером — таблица со всеми статьями сезона, упорядоченными по рейтингу.

Статья

Автор

Джун наоборот или разоблачение главного мифа вайб-кодинга

@master_program

Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV

@Lkalyadin10

Вайбанутым нет покоя

@fedignat

Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России

@snakers4

Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки

@gliderman

Синдром бесконечного окна: почему 1 миллион токенов в LLM не решает ваши проблемы (пока)

@Ser_no

Мультиагентная разработка в Cursor: как заставить субагентов работать на большие проекты

@rdudov

Поиск в личном фото архиве по текстовому описанию

@virex

Главная проблема использования ИИ (Иллюзии Интеллекта) при разработке ПО

@rsashka

От голосовых к тексту: делаем Telegram-бота для расшифровки аудио на open source модели от СБЕР — GigaAM-v3

@konstantin_kozhin

Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт

@Dmitrii-Chashchin

Ночь, телескоп, ИИ, комета: анализ спектра 3I/ATLAS с собственным Python-pipeline

@Dorial

Mixture-of-Experts: архитектура, которая спасает LLM от их собственного аппетита

@full_moon

GigaChat 3 Lightning: разбираем open source модель от Сбера

@golangloves

Прощай, ЖЖ — cпасаем заметки Python-скриптом

@gliderman

Мебельный гвоздь в крышку гроба AGI

@master_program

Как я тв-шоу переводил с помощью ML-моделей без подписок и СМС

@CyberexTech

«Господин Говорунъ: как я обучил маленькую модель разговаривать на дореформенном русском»

@konstantin_kozhin

OpenAI и ее патенты: кто стоит за разработками компании

@sokolovps

Внедряем Gemini во все поля ввода Windows: Бесплатно, без смс и с обходом ограничений

@VetaOne

Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором

@mvoytko

ML на Мосбирже — почему мой грааль не работает?

@empenoso

Новогодний подарок: Как я прикрутил LLM к scratch и порадовал ребёнка

@LeXaNe

300 дней с AI-агентами: от руководителя к Full Cycle Engineer

@akozhin

Оцифровываем сырую документацию компании с помощью ИИ локально! DeepSeek-OCR + Qwen 1.5

@Dmitrii-Chashchin

Атаки на AI-агенты: примеры угроз и опыт участия в Agent Breaker CTF

@mmvds

Как случайный код Пелевина стал пророчеством о гигаваттах для ИИ-агентов

@Danil_ka88

Подземелье c LLM-экспертами: используем PocketFlow и MCP для объяснения настолок

@Phoenix133

Laravel Copilot Workspace: как я собрал полный цикл разработки вокруг Copilot-агентов

@zabarov

Знаний слишком много. Что делать?

@flancer

Как квантовать LLM. Практическое руководство для начинающих

@maksimov_m

Базовый RAG-компонент для локального семантического поиска на Питоне

@AKAZ

Machine Unlearning. Часть 1: Почему моделям нужно уметь забывать

@MidavNibush

Вкалывают роботы, а не человек, или как убрать рутину из работы при помощи ИИ

@VasilkovN

Код пишет нейросеть. Что остается разработчику?

@mpanfilov

LLM — не один большой «мозг», а команда ролей. Как собрать AI-workflow в Claude Code и уйти от вайб-коддинга

@GrinRus

RealTime FaceSwap-10k — датасет для задачи детекции real-time дипфейков

@starikovplusplus

Хакатон Норникеля: как мы выжали максимум из YOLO и заняли 2 место

@Sherstpasha

Тестируем GigaChat на наличие сознания доступа

@Kamil_GR

Как я создал «Тунец» — платформу для попадания в ответы нейросетей с помощью нейросетей…

@Ja-gagarin

Сравнение ИИ для участия в контесте по вайбкодигу

@kosyakus

Как я за год переквалифицировался в ИИ-инженера: от DevOps до production-ready AI-агентов

@alexcollin

RAG-помощник для команды саппорта своими руками

@vdrobot

Автоматизация фоновой аналитики в финтехе с помощью background LLM‑агента: реальный опыт

@MaximML

Мы боялись за джунов, но всё будет иначе или по-другому, а может, вообще не так, как думали

@Danil_ka88

Огромный гайд: продвинутые советы и хитрости для работы с Gemini CLI и другими AI CLI утилитами

@python_leader

Как «думает» ИИ: гроккаем разреженные автоэнкодеры (SAE)

@Ivanich-spb

ИИ как инструмент для создания реальных объектов: от генерации картинки к 3D-печатной игрушке

@Danil_ka88

Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация

@ZeBrains_team

Стремимся к AGI: обучаем нейросети в экосистеме эволюционно с нуля

@LanskoyGames

Будильник для зимы: как я подружил лампу Ильича, ZigBee и LLM

@gliderman

Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене

@DankosJP

Учимся правильно использовать ИИ при разработке программного обеспечения

@rsashka

Запускаем LLM на iPhone локально — мой опыт с Gemma 2B

@Dmitrii-Chashchin

AI+RAG в системе отчетности

@SmartSmall

Upgrade: OpenSpec и Beads в Cursor

@comerc

Сбер проник в n8n и фильтрует нам лидов: как мы подключили Отечественную нейросеть к автоматизациям

@Aleron75

Гибридная нейросимвольная архитектура для превращения вероятностных ответов LLM в детерминированный код

@leleleonid

Зачем ИИ системному аналитику

@BA_TW

Не читал, но одобряю: пишем софт для быстрого анализа пользовательских соглашений

@beatwad

Сыч: телеграм-бот, который помнит обиды и обходит лимиты Google Gemini

@VetaOne

Вайбкодинг с нейросетью 1: проверяю сборку Flutter-приложения в AppImage

@Arduinum

Как ИИ помогает проектировать базы данных

@Rikkster

Избавляемся от ошибок Segmentation fault из-за переполнения стека в С++

@rsashka

Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B)

@Dmitrii-Chashchin

TSP трансформеры

@welcome2hype

Эксперимент по подстройке Gemma 3 для вызова процедур

@DSDenisov

Data-Feeling-School-RAG-Challenge или по ту сторону баррикад

@IgorSh63

От 4/10 до 8.5/10: как я за 5 итераций научил GigaChat извлекать требования из интервью

@aeremenok

Вайб-ЛЛМинг. AI агенты теперь сами обучают LLM с помощью Hugging Face Skills

@Biryukovlex

Как написать код в два счёта: впрягаем Codex с GPT

@zabarov

3 главных инсайта о «взломах» LLM из исследования StrongREJECT

@Ivanich-spb

7 причин, почему ваш ИИ тупит (и как это исправить)

@celen

Multi-API Ensemble: 95% точности транскрипции региональных топонимов

@men10577

Учебник для искусственного разума: как я сделал ИИ-помощника по планированию для 1С:ERP

@parusimore

Обзор проекта WhisperLiveKit — синхронный перевод между любыми языками

@SlavikF

Нейроакварель. Тестируем разные ИИ-решения для создания эффекта живописи красками

@GeorgyKurakin

Roo Code для тестировщика: как превратить обязательные запросы к DeepSeek в реальную пользу

@aeremenok

Оптимизация пагинации в PostgreSQL: Как настройка work_mem превратила ROW_NUMBER в лидера производительности

@pg_expecto

PG_EXPECTO: Анализ влияния размера shared_buffers на производительность СУБД PostgreSQL

@pg_expecto

Как я подключил ИИ к КуМиру: простой способ сделать школьный язык «умным»

@wsda228

Как прикрутить AI к табуретке

@vital_pavlenko

Умеет ли Gemini в TTS и транскрибацию?

@RS_AI

История о том как «Очень хочется, но ты зеленый»

@Infernobeef

Vibe Pentesting: Интегрируем HexStrike AI и OpenCode в Kali Linux

@Chumikov

Ускорение разработки с ИИ на примере DAX и Power BI

@koanse

Нечеловек, который изменил всё: как эффективно работать с ИИ, на примере создания схем бизнес-процессов в BPMN

@parusimore

Инструмент c AI-логикой для создания дерева метрик MetricTree

@v_v_pavloff

Как я делаю «снимок» проекта в JSON для ИИ и разворачиваю его обратно

@zabarov

Kandinsky 5.0 vs Stable Diffusion: практический тест на 6 сценариях для иллюстраций и ассетов

@Efrosim123

Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S

@Ded_Egor

Сделай бота для работы

@AlexeySushkov

Как мы учили ИИ тушить инциденты вместо нас (что из этого вышло)

@Up4Soft

Прогноз нейросети — Когда теория проигрывает практике или почему ROW_NUMBER() не стал королём пагинации PostgreSQL

@pg_expecto

Рассмотрим подробнее лидеров рейтинга и о чём они успели написать за прошедшие два месяца.

Топ-5 победителей сезона

Джун наоборот

Притчей во языцех стало мнение о том, что ИИ работает как джуниор-разработчик. С этим категорически не согласен хабрапользователь @master_program. Для него ИИ — всё-таки джун наоборот. Чтобы доказать это, автор попытался создать код для решения задачи моделирования полёта ракеты в атмосфере. ИИ сгенерировал код, но при перепроверке не смог найти большую часть ошибок. Кроме того, написал аэродинамику и выключил её сам. Подробности — в статье Джун наоборот или разоблачение главного мифа вайб-кодинга.

В геймдев с двух ног

А вот @Lkalyadin10 доказал, что ИИ — это джун. Когда его шестилетняя дочка, которая любит проходить лабиринты, не хотела ложиться спать, он начал разработку собственной игры для неё. Игра выстрелила в топе приложений для Android TV. Как у автора это получилось, читайте в статье Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV. Приятно, что сезон получился полезным и познавательным не только для авторского сообщества, но и для малышей!

Ни капли в рот, ни буквы в код

Представьте, что вы преподаватель и каждый раз заполняете десятки бумажных ведомостей. Пользователь @fedignat решил заменить их android‑приложением для приёма экзаменов и выставления оценок, учёта пересдачи и фиксации IP машины студента, если он работает с компьютера в аудитории. Сначала вайб-кодинг удавался, но в час X во время приёма экзамена первая же оценка просто исчезла. Кейс показал: без понимания разработки даже с ИИ создать надёжный продукт сложно. Так что «эра индивидуальных приложений» ещё не наступила. Читайте подробнее в статье Вайбанутым нет покоя.

Дружба народов

Команда, в которую входит автор @snakers4, провела титаническую работу: после выбора 20 языков собрала голоса носителей на родном и на русском, а затем создала ПО для синтеза речи на этих языках. Теперь любой голос в модели может говорить на всех поддержанных языках. Подробнее о проекте читайте в статье: Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России.

Мой параплан, мой парапла-а-ан…

От программных проектов — к «железу». Пользователь @gliderman решил превратить часы в вибровариометр. Парапланеристы используют вариометры для измерения вертикальной скорости параплана, и не всем нравится, как они пищат. В своём проекте @gliderman решил исправить это, чтобы вместо звука часы подавали тактильный сигнал, вибрировали. Так пилот сможет наслаждаться шумом ветра, а не раздражаться от писка. Что получилась, читайте в статье Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки. Как обычно на Хабре, комментарии имеют огромную ценность: ряд проблем с устройством помогли решить другие пользователи.

Топ-15 победителей сезона

Авторы следующих 10 статей по списку получат по 25 000 рублей. На шестом месте рейтинга – @Ser_no который разбирается, почему разработчики заливают в промпт целые книги, логи за неделю и дампы баз данных, а на выходе получают галлюцинации и «кашу», почему «поддерживаемый контекст» ≠ «рабочий контекст», что такое Context Rot (гниение контекста) и как с этим жить.

Автор @rdudov рассказал о мультиагентной разработке в Cursor. В Claude Code есть субагенты: экземпляры того же агента, но с фиксированным промптом и чёткими входными данными. Но не всё так радужно — в Claude Code есть vendor lock на модели Anthropic, а доступ к некоторым моделям дают только дорогие тарифы. Автор разбирал, как такой подход можно запустить в Cursor.

Давно ли вы пытались разобрать ваши снимки, сделанные хотя бы за один год? Или за один отпуск… @virex для решения этой проблемы написал поиск в личном архиве по текстовому описанию. Статья — по ссылке.

@rsashka расшифровывает ИИ не как «искусственный интеллект», а как «иллюзия интеллекта». Его поражает, как можно спорить: есть ли у LLM интеллект, или это всего лишь математические вычисления по определённому алгоритму. Автор считает, что нет смысла создавать рассуждающую иллюзию интеллекта, потому что «имитация разума превращает потенциально полезный рабочий инструмент в игру на бубне без каких-либо гарантий качества и воспроизводимости полученных результатов».

@Dmitrii-Chashchin подготовил чек-лист для разработчика, который способен помочь ИИ не топтаться на месте, создавая выдуманные переменные, кучу дублей файлов и добавляя баги. Автор рассказывает, как создать агента, способного следить за проектом и грамотно фиксить код.

Пришло время добавить немного космоса. В этом нам поможет @Dorial любитель-астроном наблюдает за 3I/ATLAS, получает свежие фото и FITS-файлы и анализирует спектр 3I/ATLAS с помощью собственного Python-pipeline. Автор рассказал, как ИИ открывает двери в науку всем желающим.

Суть метода Mixture-of-Experts: перестать «думать» всей нейросетью над каждой задачей и научить модель активировать ресурсы выборочно. Автор @full_moon рассказал о том, как работает эта архитектура, какой путь прошла за последние годы, и задаёт нам вопрос: действительно ли за МоЕ будущее или её роль сильно переоценена?

@CyberexTech решил реализовать сервис машинного закадрового перевода видео с помощью общедоступных моделей с локальным запуском. По ссылке в статье посмотрите, что получилось, на примере интервью с Томом Холландом. Интересно, что для проекта использована модель для синтеза Silero Speech, то есть продукт команды, статья которой заняла четвёртое место в этом сезоне.

Подводим итоги

Сезон «ИИ в разработке» наглядно показал: сообществу интересен не сам по себе искусственный интеллект, а его практическая применимость. Наибольшую вовлечённость получили инженерные кейсы, когда ИИ встраивается в реальный процесс разработки со всеми его ограничениями. Границы технологий стали заметнее. ИИ сегодня способен ускорять работу, но легко теряет контекст и не умеет отвечать за результат. Чем выше цена ошибки, тем критичнее роль человека.

Ещё один устойчивый тренд сезона — гибридный подход. Авторы редко ограничивались одним инструментом: одну модель использовали для генерации кода, другую — для анализа и ревью, третью — для речи и изображений. Отдельно стоит отметить роль отечественных моделей. В рамках сезона веса GigaChat использовались как полноценные рабочие инструменты: авторы запускали их локально, встраивали в собственные пайплайны, сравнивали с зарубежными аналогами и отмечали сильные стороны — прежде всего в задачах на русском языке, работе с длинными контекстами, воспроизводимости и контроле над инфраструктурой.

Сезон «ИИ в разработке» завершён. Но разговор о том, как именно и зачем мы используем искусственный интеллект, только начинается. И опыт, которым вы поделились, — в виде кода, проектов и собственных выводов — останется с сообществом навсегда.

Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке» пробовали ИИ в самых разных ролях: от экзаменационного ассистента до соавтора open source проектов. Наши герои создавали игру для ребёнка с помощью ИИ (отдельный респект за попытку объяснить шестилетнему ребёнку схему разработки), вайб-кодили инструмент для поиска снимков в собственном фотоархиве (разобрать фото — наверняка боль для многих…), проектировали вибрационный вариометр для парапланеризма.

Где‑то ИИ честно экономил десятки часов и помогал одному человеку тянуть проекты «на уровне команды», а где‑то превращал разработку в шаманство с бубном, обнулял оценки в экзаменационной ведомости и выключал аэродинамику одной строкой.

Пришло время подвести итоги!

Статистика сезона и какие модели использовали участники

Участники сезона «ИИ в разработке» представили много самых разных примеров использования искусственного интеллекта, рассказали об интересных проектах, но победителями стали лишь 15 авторов. Чем же они пользовались в работе? Посмотрим на статистику упоминаний среди статей победителей:

  • Qwen (27)

  • Claude (24)

  • Cursor (17)

  • GigaChat (14)

  • OpenAI (12)

  • DeepSeek (11)

  • GigaAM (10)

  • Gemini (9)

Отдельной линией сезона стало практическое использование отечественных открытых моделей — не в лабораторных условиях, а в реальных сценариях разработки. Накануне старта сезона Сбер выкатил веса моделей в открытый доступ. В open source ушли GigaChat 3 Ultra Preview на 702B параметров, подходящая для локального использования в качестве ассистента GigaChat Lightning, набор из пяти моделей для распознавания речи GigaAM-v3, Kandinsky 5.0 и Автокодировщик K-VAE 1.0 для ускорения генеративного AI.

Одним из первых @konstantin_kozhin захотел проверить их в реальном сценарии. Так, он разработал Telegram-бота для преобразования голосовых сообщений в текст, использовав модель GigaAM-v3. Почему бы, собственно, не воспользоваться расшифровщиком в премиум-аккаунте в ТГ? Потому что он не работает с произвольными файлами и не способен «переварить» длинные сообщения.

А хабрапользователь @golangloves протестировал версию Lightning, сравнил бенчмарки с Qwen и показал, как запустить модель без затрат на железо. Автор отметил, что для задач на русском языке и работы с длинными контекстами Lightning — одна из лучших открытых моделей в своём классе. Вот здесь можно почитать результаты эксперимента. Статьи @konstantin_kozhin и @golangloves вошли в топ-15 лучших в сезоне по рейтингу.

Наши победители сумели вовлечь хабрапользователей в активное обсуждение темы. Именно признание сообщества — главная ценность сезона. Комментаторы на Хабре традиционно выступили в роли ревью-комитета, и часть проектов стала лучше именно благодаря участию сообщества: здесь подсказывали, спорили, совершенствовали код, помогали доводить проекты до ума. Но есть и материальные призы: топ-5 авторов получат по 50 000 рублей, ещё 10 участников — по 25 000 рублей.

Суммарно статьи собрали 808 плюсов, 1281 добавление в избранное и 632 комментария.

Под спойлером — таблица со всеми статьями сезона, упорядоченными по рейтингу.

Статья

Автор

Джун наоборот или разоблачение главного мифа вайб-кодинга

@master_program

Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV

@Lkalyadin10

Вайбанутым нет покоя

@fedignat

Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России

@snakers4

Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки

@gliderman

Синдром бесконечного окна: почему 1 миллион токенов в LLM не решает ваши проблемы (пока)

@Ser_no

Мультиагентная разработка в Cursor: как заставить субагентов работать на большие проекты

@rdudov

Поиск в личном фото архиве по текстовому описанию

@virex

Главная проблема использования ИИ (Иллюзии Интеллекта) при разработке ПО

@rsashka

От голосовых к тексту: делаем Telegram-бота для расшифровки аудио на open source модели от СБЕР — GigaAM-v3

@konstantin_kozhin

Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт

@Dmitrii-Chashchin

Ночь, телескоп, ИИ, комета: анализ спектра 3I/ATLAS с собственным Python-pipeline

@Dorial

Mixture-of-Experts: архитектура, которая спасает LLM от их собственного аппетита

@full_moon

GigaChat 3 Lightning: разбираем open source модель от Сбера

@golangloves

Прощай, ЖЖ — cпасаем заметки Python-скриптом

@gliderman

Мебельный гвоздь в крышку гроба AGI

@master_program

Как я тв-шоу переводил с помощью ML-моделей без подписок и СМС

@CyberexTech

«Господин Говорунъ: как я обучил маленькую модель разговаривать на дореформенном русском»

@konstantin_kozhin

OpenAI и ее патенты: кто стоит за разработками компании

@sokolovps

Внедряем Gemini во все поля ввода Windows: Бесплатно, без смс и с обходом ограничений

@VetaOne

Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором

@mvoytko

ML на Мосбирже — почему мой грааль не работает?

@empenoso

Новогодний подарок: Как я прикрутил LLM к scratch и порадовал ребёнка

@LeXaNe

300 дней с AI-агентами: от руководителя к Full Cycle Engineer

@akozhin

Оцифровываем сырую документацию компании с помощью ИИ локально! DeepSeek-OCR + Qwen 1.5

@Dmitrii-Chashchin

Атаки на AI-агенты: примеры угроз и опыт участия в Agent Breaker CTF

@mmvds

Как случайный код Пелевина стал пророчеством о гигаваттах для ИИ-агентов

@Danil_ka88

Подземелье c LLM-экспертами: используем PocketFlow и MCP для объяснения настолок

@Phoenix133

Laravel Copilot Workspace: как я собрал полный цикл разработки вокруг Copilot-агентов

@zabarov

Знаний слишком много. Что делать?

@flancer

Как квантовать LLM. Практическое руководство для начинающих

@maksimov_m

Базовый RAG-компонент для локального семантического поиска на Питоне

@AKAZ

Machine Unlearning. Часть 1: Почему моделям нужно уметь забывать

@MidavNibush

Вкалывают роботы, а не человек, или как убрать рутину из работы при помощи ИИ

@VasilkovN

Код пишет нейросеть. Что остается разработчику?

@mpanfilov

LLM — не один большой «мозг», а команда ролей. Как собрать AI-workflow в Claude Code и уйти от вайб-коддинга

@GrinRus

RealTime FaceSwap-10k — датасет для задачи детекции real-time дипфейков

@starikovplusplus

Хакатон Норникеля: как мы выжали максимум из YOLO и заняли 2 место

@Sherstpasha

Тестируем GigaChat на наличие сознания доступа

@Kamil_GR

Как я создал «Тунец» — платформу для попадания в ответы нейросетей с помощью нейросетей…

@Ja-gagarin

Сравнение ИИ для участия в контесте по вайбкодигу

@kosyakus

Как я за год переквалифицировался в ИИ-инженера: от DevOps до production-ready AI-агентов

@alexcollin

RAG-помощник для команды саппорта своими руками

@vdrobot

Автоматизация фоновой аналитики в финтехе с помощью background LLM‑агента: реальный опыт

@MaximML

Мы боялись за джунов, но всё будет иначе или по-другому, а может, вообще не так, как думали

@Danil_ka88

Огромный гайд: продвинутые советы и хитрости для работы с Gemini CLI и другими AI CLI утилитами

@python_leader

Как «думает» ИИ: гроккаем разреженные автоэнкодеры (SAE)

@Ivanich-spb

ИИ как инструмент для создания реальных объектов: от генерации картинки к 3D-печатной игрушке

@Danil_ka88

Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация

@ZeBrains_team

Стремимся к AGI: обучаем нейросети в экосистеме эволюционно с нуля

@LanskoyGames

Будильник для зимы: как я подружил лампу Ильича, ZigBee и LLM

@gliderman

Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене

@DankosJP

Учимся правильно использовать ИИ при разработке программного обеспечения

@rsashka

Запускаем LLM на iPhone локально — мой опыт с Gemma 2B

@Dmitrii-Chashchin

AI+RAG в системе отчетности

@SmartSmall

Upgrade: OpenSpec и Beads в Cursor

@comerc

Сбер проник в n8n и фильтрует нам лидов: как мы подключили Отечественную нейросеть к автоматизациям

@Aleron75

Гибридная нейросимвольная архитектура для превращения вероятностных ответов LLM в детерминированный код

@leleleonid

Зачем ИИ системному аналитику

@BA_TW

Не читал, но одобряю: пишем софт для быстрого анализа пользовательских соглашений

@beatwad

Сыч: телеграм-бот, который помнит обиды и обходит лимиты Google Gemini

@VetaOne

Вайбкодинг с нейросетью 1: проверяю сборку Flutter-приложения в AppImage

@Arduinum

Как ИИ помогает проектировать базы данных

@Rikkster

Избавляемся от ошибок Segmentation fault из-за переполнения стека в С++

@rsashka

Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B)

@Dmitrii-Chashchin

TSP трансформеры

@welcome2hype

Эксперимент по подстройке Gemma 3 для вызова процедур

@DSDenisov

Data-Feeling-School-RAG-Challenge или по ту сторону баррикад

@IgorSh63

От 4/10 до 8.5/10: как я за 5 итераций научил GigaChat извлекать требования из интервью

@aeremenok

Вайб-ЛЛМинг. AI агенты теперь сами обучают LLM с помощью Hugging Face Skills

@Biryukovlex

Как написать код в два счёта: впрягаем Codex с GPT

@zabarov

3 главных инсайта о «взломах» LLM из исследования StrongREJECT

@Ivanich-spb

7 причин, почему ваш ИИ тупит (и как это исправить)

@celen

Multi-API Ensemble: 95% точности транскрипции региональных топонимов

@men10577

Учебник для искусственного разума: как я сделал ИИ-помощника по планированию для 1С:ERP

@parusimore

Обзор проекта WhisperLiveKit — синхронный перевод между любыми языками

@SlavikF

Нейроакварель. Тестируем разные ИИ-решения для создания эффекта живописи красками

@GeorgyKurakin

Roo Code для тестировщика: как превратить обязательные запросы к DeepSeek в реальную пользу

@aeremenok

Оптимизация пагинации в PostgreSQL: Как настройка work_mem превратила ROW_NUMBER в лидера производительности

@pg_expecto

PG_EXPECTO: Анализ влияния размера shared_buffers на производительность СУБД PostgreSQL

@pg_expecto

Как я подключил ИИ к КуМиру: простой способ сделать школьный язык «умным»

@wsda228

Как прикрутить AI к табуретке

@vital_pavlenko

Умеет ли Gemini в TTS и транскрибацию?

@RS_AI

История о том как «Очень хочется, но ты зеленый»

@Infernobeef

Vibe Pentesting: Интегрируем HexStrike AI и OpenCode в Kali Linux

@Chumikov

Ускорение разработки с ИИ на примере DAX и Power BI

@koanse

Нечеловек, который изменил всё: как эффективно работать с ИИ, на примере создания схем бизнес-процессов в BPMN

@parusimore

Инструмент c AI-логикой для создания дерева метрик MetricTree

@v_v_pavloff

Как я делаю «снимок» проекта в JSON для ИИ и разворачиваю его обратно

@zabarov

Kandinsky 5.0 vs Stable Diffusion: практический тест на 6 сценариях для иллюстраций и ассетов

@Efrosim123

Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S

@Ded_Egor

Сделай бота для работы

@AlexeySushkov

Как мы учили ИИ тушить инциденты вместо нас (что из этого вышло)

@Up4Soft

Прогноз нейросети — Когда теория проигрывает практике или почему ROW_NUMBER() не стал королём пагинации PostgreSQL

@pg_expecto

Рассмотрим подробнее лидеров рейтинга и о чём они успели написать за прошедшие два месяца.

Топ-5 победителей сезона

Джун наоборот

Притчей во языцех стало мнение о том, что ИИ работает как джуниор-разработчик. С этим категорически не согласен хабрапользователь @master_program. Для него ИИ — всё-таки джун наоборот. Чтобы доказать это, автор попытался создать код для решения задачи моделирования полёта ракеты в атмосфере. ИИ сгенерировал код, но при перепроверке не смог найти большую часть ошибок. Кроме того, написал аэродинамику и выключил её сам. Подробности — в статье Джун наоборот или разоблачение главного мифа вайб-кодинга.

В геймдев с двух ног

А вот @Lkalyadin10 доказал, что ИИ — это джун. Когда его шестилетняя дочка, которая любит проходить лабиринты, не хотела ложиться спать, он начал разработку собственной игры для неё. Игра выстрелила в топе приложений для Android TV. Как у автора это получилось, читайте в статье Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV. Приятно, что сезон получился полезным и познавательным не только для авторского сообщества, но и для малышей!

Ни капли в рот, ни буквы в код

Представьте, что вы преподаватель и каждый раз заполняете десятки бумажных ведомостей. Пользователь @fedignat решил заменить их android‑приложением для приёма экзаменов и выставления оценок, учёта пересдачи и фиксации IP машины студента, если он работает с компьютера в аудитории. Сначала вайб-кодинг удавался, но в час X во время приёма экзамена первая же оценка просто исчезла. Кейс показал: без понимания разработки даже с ИИ создать надёжный продукт сложно. Так что «эра индивидуальных приложений» ещё не наступила. Читайте подробнее в статье Вайбанутым нет покоя.

Дружба народов

Команда, в которую входит автор @snakers4, провела титаническую работу: после выбора 20 языков собрала голоса носителей на родном и на русском, а затем создала ПО для синтеза речи на этих языках. Теперь любой голос в модели может говорить на всех поддержанных языках. Подробнее о проекте читайте в статье: Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России.

Мой параплан, мой парапла-а-ан…

От программных проектов — к «железу». Пользователь @gliderman решил превратить часы в вибровариометр. Парапланеристы используют вариометры для измерения вертикальной скорости параплана, и не всем нравится, как они пищат. В своём проекте @gliderman решил исправить это, чтобы вместо звука часы подавали тактильный сигнал, вибрировали. Так пилот сможет наслаждаться шумом ветра, а не раздражаться от писка. Что получилась, читайте в статье Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки. Как обычно на Хабре, комментарии имеют огромную ценность: ряд проблем с устройством помогли решить другие пользователи.

Топ-15 победителей сезона

Авторы следующих 10 статей по списку получат по 25 000 рублей. На шестом месте рейтинга – @Ser_no который разбирается, почему разработчики заливают в промпт целые книги, логи за неделю и дампы баз данных, а на выходе получают галлюцинации и «кашу», почему «поддерживаемый контекст» ≠ «рабочий контекст», что такое Context Rot (гниение контекста) и как с этим жить.

Автор @rdudov рассказал о мультиагентной разработке в Cursor. В Claude Code есть субагенты: экземпляры того же агента, но с фиксированным промптом и чёткими входными данными. Но не всё так радужно — в Claude Code есть vendor lock на модели Anthropic, а доступ к некоторым моделям дают только дорогие тарифы. Автор разбирал, как такой подход можно запустить в Cursor.

Давно ли вы пытались разобрать ваши снимки, сделанные хотя бы за один год? Или за один отпуск… @virex для решения этой проблемы написал поиск в личном архиве по текстовому описанию. Статья — по ссылке.

@rsashka расшифровывает ИИ не как «искусственный интеллект», а как «иллюзия интеллекта». Его поражает, как можно спорить: есть ли у LLM интеллект, или это всего лишь математические вычисления по определённому алгоритму. Автор считает, что нет смысла создавать рассуждающую иллюзию интеллекта, потому что «имитация разума превращает потенциально полезный рабочий инструмент в игру на бубне без каких-либо гарантий качества и воспроизводимости полученных результатов».

@Dmitrii-Chashchin подготовил чек-лист для разработчика, который способен помочь ИИ не топтаться на месте, создавая выдуманные переменные, кучу дублей файлов и добавляя баги. Автор рассказывает, как создать агента, способного следить за проектом и грамотно фиксить код.

Пришло время добавить немного космоса. В этом нам поможет @Dorial любитель-астроном наблюдает за 3I/ATLAS, получает свежие фото и FITS-файлы и анализирует спектр 3I/ATLAS с помощью собственного Python-pipeline. Автор рассказал, как ИИ открывает двери в науку всем желающим.

Суть метода Mixture-of-Experts: перестать «думать» всей нейросетью над каждой задачей и научить модель активировать ресурсы выборочно. Автор @full_moon рассказал о том, как работает эта архитектура, какой путь прошла за последние годы, и задаёт нам вопрос: действительно ли за МоЕ будущее или её роль сильно переоценена?

@CyberexTech решил реализовать сервис машинного закадрового перевода видео с помощью общедоступных моделей с локальным запуском. По ссылке в статье посмотрите, что получилось, на примере интервью с Томом Холландом. Интересно, что для проекта использована модель для синтеза Silero Speech, то есть продукт команды, статья которой заняла четвёртое место в этом сезоне.

Подводим итоги

Сезон «ИИ в разработке» наглядно показал: сообществу интересен не сам по себе искусственный интеллект, а его практическая применимость. Наибольшую вовлечённость получили инженерные кейсы, когда ИИ встраивается в реальный процесс разработки со всеми его ограничениями. Границы технологий стали заметнее. ИИ сегодня способен ускорять работу, но легко теряет контекст и не умеет отвечать за результат. Чем выше цена ошибки, тем критичнее роль человека.

Ещё один устойчивый тренд сезона — гибридный подход. Авторы редко ограничивались одним инструментом: одну модель использовали для генерации кода, другую — для анализа и ревью, третью — для речи и изображений. Отдельно стоит отметить роль отечественных моделей. В рамках сезона веса GigaChat использовались как полноценные рабочие инструменты: авторы запускали их локально, встраивали в собственные пайплайны, сравнивали с зарубежными аналогами и отмечали сильные стороны — прежде всего в задачах на русском языке, работе с длинными контекстами, воспроизводимости и контроле над инфраструктурой.

Сезон «ИИ в разработке» завершён. Но разговор о том, как именно и зачем мы используем искусственный интеллект, только начинается. И опыт, которым вы поделились, — в виде кода, проектов и собственных выводов — останется с сообществом навсегда.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Рост токена RAVE на 1800% предварялся таинственным накоплением в кошельках, что вызвало срочное расследование инсайдерской торговли

Рост токена RAVE на 1800% предварялся таинственным накоплением в кошельках, что вызвало срочное расследование инсайдерской торговли

Статья о росте токена RAVE на 1800%, которому предшествовало таинственное накопление в кошельках, что вызвало срочное расследование инсайдерской торговли, появилась на BitcoinEthereumNews.com. RAVE Token
Поделиться
BitcoinEthereumNews2026/04/13 14:25
Компания Сэйлора рассматривает очередную масштабную покупку Bitcoin

Компания Сэйлора рассматривает очередную масштабную покупку Bitcoin

Статья Saylor's Firm Eyes Another Massive Bitcoin Buy появилась на BitcoinEthereumNews.com. Спекуляции нарастают вокруг Стратегии Майкла Сэйлора после того, как
Поделиться
BitcoinEthereumNews2026/04/13 13:59
Новости криптовалютного рынка: индекс цен производителей США и закон CLARITY в фокусе на фоне опасений инфляции

Новости криптовалютного рынка: индекс цен производителей США и закон CLARITY в фокусе на фоне опасений инфляции

Ключевые моменты: Криптовалютный рынок вступает в напряженную, критическую фазу на фоне опасений по поводу инфляции в США и глобальной неопределенности. На фоне растущей геополитической напряженности
Поделиться
Thecoinrepublic2026/04/13 15:30

Генезис USD1: 0% + 12% APR

Генезис USD1: 0% + 12% APRГенезис USD1: 0% + 12% APR

Новые пользователи: Стейкайте и получите до 600% APR