Всем привет! Меня зовут Татьяна Кутузова, я работаю в Wildberries & Russ ML-инженером. Вместе с Иваном Горбуновым и Елисеем Мягких мы занимаемся разработкой AI-Всем привет! Меня зовут Татьяна Кутузова, я работаю в Wildberries & Russ ML-инженером. Вместе с Иваном Горбуновым и Елисеем Мягких мы занимаемся разработкой AI-

Детектор AI-сгенерированных изображений: от идеи до честной оценки качества

Всем привет! Меня зовут Татьяна Кутузова, я работаю в Wildberries & Russ ML-инженером. Вместе с Иваном Горбуновым и Елисеем Мягких мы занимаемся разработкой AI-детектора изображений, который помогает отличать реальные фотографии от сгенерированных нейросетями.

В этой статье рассказываем, как мы подошли к созданию AI-детектора: от выбора архитектуры и данных до продуктовых границ и сценариев применения. Отдельное внимание уделяем тому, как в таких задачах корректно оценивать качество модели, какие метрики имеют смысл и почему их интерпретация не менее важна, чем сами числа.

Глава 1. Введение: Когда ваши глаза (и наша Accuracy) вас обманывают

Ещё пару лет назад, когда мы говорили про AI-изображения, многие представляли себе сюрреалистичные картинки, где у людей по 7 пальцев на руке, а глаза выглядят стеклянными. Но в 2025 году всё обстоит иначе. Современные модели научились генерировать кадры, практически неотличимые от снимков с профессиональных камер: с естественным шумом матрицы (ISO), реалистичными дефектами кожи, правильной оптикой и глубиной резкости.

51645551500b97843c1a3c9506547cda.png

Грань между реальностью и генерацией стерлась настолько, что даже эксперты перестали видеть разницу. Показательный пример — скандал на Sony World Photography Awards, где победил снимок, созданный в Midjourney. Автор позже сам отказался от награды, признавшись, что это был эксперимент.

Это порождает новую глобальную проблему: как понять, что перед тобой: факт или фикция? И это касается не только энтузиастов технологий:

  • Фотографы жалуются, что их реальные работы путают с AI, а платформы пессимизируют их контент.

  • Новостные редакции рискуют репутацией, публикуя непроверенные «фото с места событий».

  • Юристы и суды сталкиваются с тем, что фотография перестает быть безусловным доказательством.

  • Маркетинговые агентства вынуждены проверять креативы, чтобы избежать юридических рисков.

Для нас в Wildberries это тоже не теоретический вопрос. Мы работаем с колоссальным объемом визуального контента, и нам нужен инструмент для автоматической валидации изображений. Поэтому мы разработали WB AI Detector.

На наших внутренних тестах и отложенных выборках мы получили красивые цифры: более 95% точности. Казалось бы, победа. Но когда мы открыли доступ пользователям, то столкнулись с суровой реальностью: люди начали загружать свои фото и получать результаты, которые их запутывали или разочаровывали.

Мы поняли, что AI-детектор не должен быть просто «точным» в вакууме. Он должен быть интерпретируемым. Мало получить красивое число метрики. Нужно понимать:

  • Какие именно ошибки делает модель?

  • Почему 95% точности могут означать, что продукт работает плохо?

  • Почему в одних случаях ложное срабатывание — мелочь, а в других — катастрофа, страшнее пропуска фейка?

В этой мы честно расскажем, как обучали модель, почему метрики качества могут быть субъективными и почему ваши 10 фотографий в бета-тесте могут не совпадать с нашей статистикой на миллионах примеров. Давайте разбираться.

Глава 2. Матрица ошибок (Confusion Matrix) — основа основ

Прежде чем обсуждать метрики качества, важно разобраться с тем, из чего они вообще считаются. Все красивые слова вроде precision, recall, specificity, F1 — это всего лишь разные способы по-разному посмотреть на одну и ту же таблицу: confusion matrix.

Несмотря на простоту, Confusion Matrix — это то, без чего невозможно понять качество модели. Confusion Matrix как рентген модели показывает не просто «как хорошо она работает», а какие именно ошибки она совершает, ее слепые зоны и риски. И уже от этой основы считаются все остальные метрики, каждая из которых подсвечивает свою часть поведения модели.

a03fc3c396a32a64c5147017b204f781.png

Расшифровка:

  • TP — модель правильно нашла AI

  • TN — правильно определила реальный снимок

  • FP — ошибочно обвинила реальное фото

  • FN — пропустила AI, назвав его настоящим

Примеры работы WB AI Detector:

True Positive Изображение, которое победило на Sony World Photography Awards и оказалось сгенерированным
True Positive Изображение, которое победило на Sony World Photography Awards и оказалось сгенерированным
False Positive Фотография северного сияния из личного архива
False Positive Фотография северного сияния из личного архива
False Negative Генерация интерьера с помощью ChatGPT
False Negative Генерация интерьера с помощью ChatGPT
True Negative Фотография из личного архива
True Negative Фотография из личного архива

Напомним, какие основные метрики существуют для оценки задачи классификации.

Accuracy

Самая простая и самая «подлая» метрика оценки качества модели.

Accuracy = (TP + TN) / (TP + FP + TN + FN)

Если 95% изображений реальные, достаточно модели, которая всегда говорит «фото реально», и вы получите: Accuracy = 95%.

Поздравляем, у вас идеальная модель, которая не нашла ни одного AI-снимка.

Precision

Отвечает на вопрос: «Если модель сказала, что фото сгенерировано, можно ли ей верить?»

Precision = TP / (TP + FP)

Высокое значение precision не говорит, что перед нами хорошая модель, если она пропускает большинство сгенерированных изображений (низкий Recall).

Recall (Sensitivity)

Recall лучший друг метрики precision. В то время как Precision измеряет, насколько предсказания положительного класса корректны, Recall оценивает, насколько полно модель находит все реальные положительные объекты.

Эти метрики часто противоречат друг другу: увеличение Recall может привести к падению Precision и наоборот.

Recall = TP / (TP + FN)

Многие думают, что «хорошая точность = хорошая модель». На деле можно иметь Precision > 90%, но при этом почти не ловить AI-контент, обнаружить такую ситуацию помогает вычисление recall.

Specificity

Одна из самых недооцененных метрик оценки классификации, особенно в задачах вроде AI-детекции. Если Recall помогает ловить все AI-фото, Specificity заботится о настоящих фотографиях. Она показывает, какую долю реальных изображений модель не перепутала с AI: «Из всех настоящих фотографий, какую долю модель НЕ перепутала с AI?»

Specificity = TN / (TN + FP)

Если Specificity низкое, то пользователи будут жаловаться: «Почему вы называете моё реальное фото фейком?». Эта метрика напрямую связана с UX и репутацией. Особенно важна для фотостоков, конкурсов, платформ.

F-beta (F1) - баланс между точностью и полнотой
  • Accuracy обманывает на несбалансированных данных, игнорирует тип ошибок

  • Precision не учитывает пропуски (FN), можно «схитрить», делая мало предсказаний

  • Recall не учитывает ложные срабатывания (FP), можно «схитрить», предсказывая всё как

  • AI Specificity игнорирует AI-детекцию, важна только для негативного класса

F-beta — это способ собрать precision и recall в одно число, при этом явно указав, какая ошибка вам дороже. F-beta — взвешенное среднее гармоническое значение точности и полноты, то есть она не просто усредняет, а указывает на перекосы модели.

F-beta = (1 + beta^2)  (precision*recall) / (beta^2 * precision + recall)
  • β > 1 → делаем ставку на Recall, чтобы ловить больше AI-фото, даже если появляются ложные обвинения.

  • β < 1 → делаем ставку на Precision, чтобы меньше ошибочно помечать реальные фото, жертвуя частично полнотой.

  • β = 1 → частный и самый часто используемый вариант, в котором важность precision и recall эквивалентна

Глава 3. Проблема, с которой действительно сталкиваются инженеры

В реальных продуктах AI-детектор сталкивается с куда более непредсказуемыми условиями, чем на этапе разработки. Баланс классов меняется, потоки данных разнородные, а стоимость ошибки зависит от конкретного сценария. На модерации отзывов важно не пропустить фейк, в конкурсах не «забанить» настоящего участника. В антифроде любое ложное срабатывание превращается в проблему для бизнеса. Именно поэтому вопрос оценки качества модели нельзя свести к одной цифре на валидации. Чтобы увидеть, как модель работает «вживую», требуется отдельная инженерная работа.

Пример реальной задачи, в которой работает AI detector: модерация отзывов

Рассмотрим задачу модерации отзывов с фотографиями. Бизнес-цель очевидна: сохранить доверие пользователей. Изображения в отзывах должны быть настоящими, и детектор сгенерированных изображений должен корректно идентифицировать синтетику, не ухудшая опыт обычных покупателей. Ошибки здесь имеют разный характер и стоимость: пропуск фейкового изображения может искажать впечатление о товаре, но чрезмерное количество ложных срабатываний создает излишнее раздражение как с точки зрения пользователя, так и с точки зрения поставщика.

В такой задаче сразу возникает несколько серьезных трудностей:

  • Сильный дисбаланс классов. Настоящих фото на порядки больше, чем сгенерированных, поэтому модель сталкивается с крайне разреженными положительными примерами.

  • Ограниченная разметка. Поток составляет сотни тысяч изображений в день, и размечать его целиком физически невозможно. Система разметки, естественно, концентрируется на «подозрительных» случаях, а не на всём потоке, что приводит к третьей проблеме — смещению выборки. На размеченных данных пропорции классов и распределение признаков отличаются от продовых, что делает прямое измерение качества некорректным.

  • Смещённые метки. Разметчики чаще всего помечают только «подозрительные» случаи, а не весь поток, поэтому даже имеющаяся разметка сильно искажает реальное распределение.

В таких условиях построение честной оценки качества модели превращается в отдельную нетривиальную задачу. Модель, которая показывает хорошие результаты на валидации, может в продакшене демонстрировать precision в 10 раз ниже. Причина при этом не в архитектуре или ошибке обучения, а в изменении распределения и смещении меток. Для инженера это означает необходимость проектировать методы оценки так же внимательно, как и саму модель: учитывать дисбаланс, структуру потока, характер разметки и влияние этого на все основные метрики.

Задача оценки: как понять качество на продовых данных

Чтобы понять, как различные методы оценки качества работают в условиях смещенного распределения и ограниченной разметки, мы проводим серию контролируемых экспериментов. Вместо реального продакшн-потока, в котором нет полного ground truth, мы создаём синтетические датасеты, где известны истинные распределения классов. Это позволяет сравнивать подходы на одинаковом основании и фиксировать, насколько сильно и в какую сторону они дают смещение.

Продовый поток моделируется двумя сценариями:

  • Выборка 1: доля положительного класса 0.05 — аналог задачи модерации отзывов.

  • Выборка 2: доля положительного класса 0.2 — аналог задачи фотоконкурсов.

Модель обучается на отдельном датасете, который имеет собственный дисбаланс и не совпадает с продовым распределением. Из этого датасета выделяется валидационная выборка.

Для интерпретации результатов используется фиксированный порог 0.5. Однако он выбран исключительно для удобства сравнения: в реальных сценариях порог классификации определяется бизнес-требованиями и компромисса между FP и FN, и может отличаться на разных сценариях.

Оценим эталонное качество на наших продовых выборках, чтобы сравнивать с ними получившуюся оценку.

precision

recall

f1

pr-auc

roc-auc

Выборка 1 (0.05)

0.18

0.84

0.3

0.25

0.88

Выборка 2 (0.2)

0.51

0.84

0.64

0.59

0.87

Подход 1. Расчет только на валидационной выборке

2c4c8845d10731ef3d0a211d04af9b9a.png

Наиболее распространённая схема: рассчитывать метрики на валидации, полученной обычным train/test/val split по размеченным данным. При таком подходе часто не анализируется, насколько эта выборка репрезентативна для потенциального продового распределения, и какие доверительные интервалы вообще имеет полученная метрика.

На практике эта стратегия приводит к систематическому завышению показателей. При выкатке в продакшн неожиданно обнаруживается, что precision, recall и производные метрики оказываются на порядок ниже, особенно в сценариях с сильным дисбалансом классов. Типичная реакция — попытка компенсировать падение за счёт «улучшения архитектуры» или увеличения размеров модели. Однако корневая причина — не в модели, а в оценке.

Валидация отражает лишь распределение обучающего датасета. Она не содержит информации о смещении меток, не учитывает продовый баланс, степень разреженности положительного класса и качество потоковых данных. Поэтому метрики по валидации оказываются примерно одинаковыми для разных задач: отсутствует адаптация к реальной статистике.

При ожидаемом precision 0.18(выборка 1) и 0.51(выборка 2), валидационная оценка показывает 0.81, что на порядок выше реального поведения модели.*сводная таблица по всем метрикам и подходам будет в конце главы

Подход 2. Пересемплировать выборку по подобию реального распределения

62ef6209107f0d427143f4ec529b6f10.png

Следующий логичный шаг в оценке качества — пересчитать метрики на валидации так, чтобы распределение скоров совпадало с продовым. Такой подход действительно даёт более низкие значения по сравнению с изначальной валидацией и позволяет увидеть диапазон возможных метрик, что создаёт ощущение, будто мы приблизились к реальности.

Однако это иллюзия: несмотря на снижение показателей, результаты всё ещё заметно расходятся с продом, потому что само распределение валидационных данных остаётся другим, и перевзвешивание не устраняет эту фундаментальную разницу.

При ожидаемом precision 0.18 (выборка 1) и 0.51 (выборка 2) мы получаем значения (0.71–0.73) и (0.76–0.77) соответственно, что выглядит гораздо лучше на бумаге, но объективно не приближает нас к продовым показателям и лишь создаёт ложное ощущение улучшения качества подхода оценки. *сводная таблица по всем метрикам и подходам будет в конце главы

Подход 3. Сделать новую выборку

После первых двух подходов становится очевидно, что корень проблемы находится в распределении данных. Если валидационная выборка нерепрезентативна, и простое перевзвешивание не устраняет смещение, логично перейти к формированию новой выборки. Важно при этом не просто собирать дополнительные данные, а выбирать их так, чтобы получить несмещенные оценки с минимальной дисперсией целевых метрик.

Мы остановились на Importance Sampling, но прежде чем найти это решение мы пробовали разные подходы. В следующих статьях расскажем про эти эксперименты, там много интересных инсайтов.

Если вам интересно подробнее узнать, как именно мы применяем importance sampling для оценки качества классификации, можно посмотреть доклад нашего коллеги — он подробно рассказывает, как появилась эта идея и почему она оказалась полезной для разных команд.

Importance Sampling на пальцах

Здесь примеры отбираются не случайно и не по эвристике «подозрительности», а пропорционально их вкладу в восстановление реального продового распределения. Это достигается за счёт оценки двух плотностей распределения скоринга модели:

  • preal​(x) — распределение скоринга в продовом потоке;

  • psubsample​(x) — распределение скоринга среди размеченных данных.

Для каждого примера вычисляется вес важности:

Чем чаще значение x встречается в проде и чем реже — в размеченной выборке, тем выше вероятность, что этот пример будет выбран для разметки. Такой подход снижает дисперсию оценок и позволяет использовать разметку более эффективно.

Результаты демонстрируют, что метрики стали ближе к продовым значениям. Например, для выборки с балансом 0.05 precision стал 0.19 при ожидаемом значении 0.18. Аналогичное поведение наблюдается и для выборки с балансом 0.2, ожидаемое значение 0.51, а полученное 0.51. Однако, несмотря на улучшение, оценки всё ещё могут немного отличаются от истинных значений, а также подход не позволяет получить доверительные интервалы оценки метрик.

Ключевой недостаток здесь в том, что выборка учтена корректно, но пересчёт метрик не учитывает требуемое перевзвешивание относительно продового распределения. Эта проблема устраняется только в следующем подходе.

Подход 4. Идеальная оценка

Объединяем подходы 2 и 3, чтобы получить наиболее точную оценку. На схеме изображен полный пайплайн по оценке качества.

Значение precision для выборки 1 представляет из себя (0.16, 0.19), когда прод значение 0.18, а для второй выборки с меньшим дисбалансом precision (0.5, 0.53) с прод-значением 0.51.

По оценкам видно, что наши значения на прод данных попадают в доверительные интервалы нашей оценки и доверительные интервалы получаются не слишком широкими, а следовательно можно считать, что мы справились со своей задачей.

ae975bb1ac9842879815c8f7445d68fb.pngСводные таблицы качества всех подходов

Выборка 1. Баланс 0.05

precision

recall

f1

pr-auc

roc-auc

Реальные данные

0.18

0.84

0.3

0.25

0.88

Подход 1

0.81

0.83

0.82

0.84

0.88

Подход 2

(0.71, 0.73)

(0.56, 0.57)

(0.62, 0.64)

(0.69, 0.72)

(0.82, 0.83)

Подход 3

0.19

0.93

0.32

0.24

0.84

Подход 4

(0.16, 0.19)

(0.78, 0.86)

(0.27, 0.3)

(0.22, 0.25)

(0.84, 0.89)

Выборка 2. Баланс 0.2

precision

recall

f1

pr-auc

roc-auc

Реальные данные

0.51

0.84

0.64

0.59

0.87

Подход 1

0.81

0.83

0.82

0.84

0.88

Подход 2

(0.76, 0.77)

(0.68, 0.7)

(0.72, 0.74)

(0.77, 0.79)

(0.85, 0.87)

Подход 3

0.56

0.92

0.69

0.65

0.87

Подход 4

(0.5, 0.53)

(0.81, 0.85)

(0.63, 0.65)

(0.59, 0.64)

(0.87, 0.89)

Подведение итогов

Importance Sampling — это метод, который позволяет восстанавливать реальное продовое распределение данных на основе ограниченной и смещённой разметки.

С его помощью мы:

  • корректно семплируем примеры для разметки, минимизируя дисперсию оценок;

  • пересчитываем метрики с весами, компенсирующими разницу распределений;

  • получаем честные оценки качества модели и реалистичные доверительные интервалы даже при очень маленькой разметке.

Оценка качества модели на проде — это не про «красивые» цифры в ноутбуке, а про способность честно и предсказуемо отражать то, как модель работает в реальности. В задачах с ограниченной и смещенной разметкой классические подходы (валидация «как есть», пересэмплирование по балансу классов, сбор новой нерепрезентативной выборки) приводят к систематическим ошибкам: метрики становятся либо слишком оптимистичными, либо нестабильными, либо просто не имеют отношения к продовому распределению. Гораздо ценнее для продукта и команды — давать честные, воспроизводимые и надёжные оценки, чем показывать числа, которые всего лишь чуть лучше случайности.

Глава 4. Причины расхождения тестовых метрик и пользовательского опыта

В предыдущих главах мы разобрали, как выглядят метрики классификации на бумаге: Accuracy, F1, ROC-AUC. Мы, как разработчики, смотрим на тестовый датасет из десятков тысяч картинок, видим более 95% точности, выдыхаем и готовим релиз.

Однако на практике всё выглядит иначе. Пользователь загружает 10 своих фотографий, видит ошибки на четырёх из них и делает закономерный вывод: точность работы на его примерах больше похожа на подбрасывание монетки, чем на заявленные 95%.

Парадокс в том, что правы обе стороны. Существует объективная разница между проверкой модели в лабораторных условиях при создании и её работой в жизни. Рассмотрим три фактора, из-за которых метрики качества могут расходиться с личным опытом пользователей

1. Закон малых чисел и смещение выборки

В главе 3 мы говорили про Accuracy. Глобально она может быть 95%. Но это средняя температура по больнице.

Когда пользователь тестирует продукт, он имеет дело с микро-выборкой. Представьте, что у вас есть мешок с 100 шариками: 95 зеленых (успех) и 5 красных (ошибка). Если вы достанете все 100 шариков, статистика сойдется. Но если вы достанете всего 3 шарика, вам чисто случайно могут попасться 2 красных.

Для пользователя эти 2 ошибки из 3 попыток превращаются в субъективное ощущение «точность 33%». Хотя математически модель не изменилась. Чтобы подтвердить или опровергнуть наши 95%, пользователю нужно было бы загрузить несколько сотен (а лучше тысяч) случайных изображений. Но в реальности никто не проводит аудит: люди склоны делать вывод по первому впечатлению.

2. Состязательное тестирование

Как пользователи обычно тестируют детектор? Скорее всего, они не начинают с простых и очевидных кадров. У человека возникает естественное желание проверить алгоритм на прочность: взять сложное фото с сильной ретушью или фильтрами и посмотреть, сможет ли модель распознать подвох.

Пользователи интуитивно выбирают самые сложные примеры.

  • Если человек загружает 10 простых фото, он получает 10 верных ответов и забывает об этом.

  • Если он загружает 1 сложное фото и получает ошибку, он запоминает (и публикует) именно её.

В этот момент происходит смещение выборки. Пользователи тестируют модель не на всем многообразии контента, а концентрируются на нескольких граничных случаях. Точность любой ML-модели на таких примерах всегда будет кратно ниже, чем общая точность на всей выборке.

3. Где проходит грань реальности?

В главе 3 мы обсуждали метрику Specificity (способность верно определять реальные фото) и риски ложно-позитивных срабатываний. Но что такое «реальное фото» в 2025 году?

  • Фото с iPhone, где алгоритм Deep Fusion перерисовал текстуру кожи?

  • Обработанный снимок ночного неба от профессионального фотографа?

  • Селфи с «бьютификатором»?

Для детектора, который ищет следы алгоритмического вмешательства, современные смартфоны являются настоящим вызовом. Они уже используют AI для улучшения снимков. Когда детектор выдает на такое фото вердикт «AI: 60%», он, возможно, прав технически (вмешательство алгоритмов было), но не прав продуктово (пользователь считает это реальным снимком). Это конфликт определений, который порождает низкое доверие пользователей, даже если математика модели работает верно.

В результате получается, что заявленные 95% точности и выше — это результат, который мы получили на большой тестовой выборке в ходе внутренней проверки. Эта цифра отражает способность модели работать качественно на огромном потоке данных. Однако частный случай всегда может выбиваться из общей статистики. Ощущение низкой точности у пользователей обычно складывается из нескольких факторов: выводы делаются на основе всего нескольких попыток, а пользователи намеренно тестируют модель на самых каверзных примерах.

Глава 5. Архитектура и советы по созданию AI-детектора

В этой главе мы перейдем от теории метрик к инженерной практике. Создание детектора — это не только обучение нейросети, но и решение ряда продуктовых и архитектурных дилемм.

Выбор архитектуры: Трансформеры vs Сверточные сети

Современные исследования в области компьютерного зрения показывают, что в задаче детекции сгенерированных изображений пока нет единого «золотого стандарта». Сообщество разделилось: одни исследователи делают ставку на классические сверточные сети (CNN), другие — на архитектуры трансформеров (Vision Transformers).

Важно понимать, что детекция AI-контента часто строится не столько на понимании общего контекста, сколько на поиске специфических шаблонов и признаков. Генеративные модели оставляют после себя скрытые следы — микро-артефакты и повторяющиеся паттерны, которые не видны глазу, но различимы для алгоритмов. С задачей поиска таких шаблонов концептуально хорошо справляются оба типа архитектур: и сверточные сети, работающие с локальными текстурами, и трансформеры.

Мы провели серию сравнительных экспериментов на наших данных и в итоге остановили свой выбор на подходе с использованием трансформеров.

20815a63ae13a6984dea66a72264e361.png

В процессе создания детектора мы выделили несколько отдельных пунктов, которые значимо влияют на успех итогового продукта. Если вы собираетесь сделать свой AI-детектор, то советуем обратить ваше внимание на них.

1. Используем ансамбли подходов

Машинное обучение — это вероятностный подход, но существуют и детерминированные методы. Например, можно начать с использования стандартных протоколов, таких как C2PA (Coalition for Content Provenance and Authenticity).

Суть технологии в том, что в файл «вшивается» криптографически защищенная история его происхождения. Если камера или графический редактор поддерживают этот стандарт, мы можем точно узнать, кем и когда был создан файл и какие изменения в него вносились. Использование таких метаданных в связке с нейросетевым анализом значительно повышает надежность системы.

2. Смотрим на картинку как на сигнал: низкоуровневые признаки и быстрые преобразования Фурье
Генеративные модели (GAN, Diffusion) отлично научились воспроизводить высокоуровневые образы, но часто оставляют свои «следы» в статистике распределения шума. Реальная фотография обладает естественной структурой шума матрицы, в то время как сгенерированное изображение строится математически (через свертки и upsampling), что порождает регулярные спектральные аномалии и неестественные повторения частот.

Чтобы модель лучше улавливала эти дефекты, полезно анализировать изображение в частотном домене с помощью Быстрых преобразований Фурье (FFT).

  • Как это считается: Изображение переводится в оттенки серого -> Применяется 2D-преобразование Фурье -> Центрируется спектр -> Считается логарифм амплитуды.

  • Что это дает: На спектре реального фото частоты убывают плавно. У AI-изображений часто видны яркие всплески или геометрические узоры (сетки) на высоких частотах. Понимание того, как выглядит этот отпечаток нейросетей, поможет лучше подобрать данные для обучения нейросети.

efafd7202d12940bf642c21cd10b9490.png

3. Больше примеров генераторов

Чтобы детектор работал не только на тех картинках, которые он видел, но и на тех, что появятся завтра, ему нужна развитая способность к генерализации. Результаты свежих научных статей, а также наши исследования подтверждают, что модели нужно увидеть во время обучения порядка 1000 различных генераторов, чтобы успешно развить эту способность.

https://arxiv.org/pdf/2411.04125
https://arxiv.org/pdf/2411.04125

Сюда входят не только популярные Midjourney или DALL-E, но и сотни версий GAN, ранние диффузионные модели, специфические LoRA и кастомные чекпоинты с huggingface. Только увидел достаточно большое количество источников сгенерированных изображений, модель начинает видеть общие закономерности в данных и может успешно находить работу даже тех нейросетей, которые не использовались при её обучении

4. Разнообразие домена данных

Так как область применения детектора ничем не ограничена, датасет должен быть максимально широким. Если обучить модель только на портретах людей, она будет бессильна перед сгенерированным пейзажем или чертежом.

Для высокой точности в обучающую выборку должны входить самые разные классы объектов: от фотореалистичной еды и интерьеров до документов, скриншотов и абстракций. Чем шире эрудиция модели, тем сложнее загнать её в тупик нестандартным запросом.

5. Продуктовая граница: что считать реальностью?

Это самый философский и сложный вопрос. Прежде чем обучать модель, нужно договориться о терминах.

  • Считаем ли мы сгенерированным фото, сделанное на смартфон? Ведь современные устройства уже используют нейросети для дорисовки текстур, улучшения ночного неба и размытия фона.

  • Является ли фейком фото с профессиональной ретушью в Photoshop?

  • Как классифицировать фотографию монитора, на котором открыта сгенерированная картинка?

Технически во всех этих случаях есть алгоритмическое вмешательство. Но продуктово нужно провести четкую черту, чтобы не помечать как сгенерированную каждую фотографию из отпуска или профессиональную рекламную съемку. Калибровка этой границы — задача не столько для ML-инженера, сколько для продукта, так как она напрямую влияет на пользовательский опыт.

6. Непрерывный процесс дообучения детектора

Сфера генеративного AI — одна из самых быстрорастущих. Новые архитектуры и обновления существующих моделей (вроде переходов от Midjourney v5 к v6 или появления FLUX) происходят постоянно. Даже обладая высокой способностью к генерализации (см. пункт 2), детектор не может вечно опираться на старые знания. Важно держать руку на пульсе индустрии: оперативно отслеживать новые релизы, собирать свежие примеры генераций и показывать их модели. Это позволяет детектору адаптироваться к новым паттернам и сохранять актуальность метрик.

Глава 6. Заключение

Мы написали эту статью, чтобы разобрать черный ящик AI-детекции и объяснить природу расхождений между ожиданиями и реальностью. Пройдя путь от теории Confusion Matrix до инженерных решений на базе трансформеров, мы увидели, что за красивой цифрой 95% всегда стоит сложная система компромиссов. Это баланс между желанием найти каждое сгенерированное изображение и риском ложного обвинения, между чистотой валидационных данных и хаосом сжатых картинок в мессенджерах, между строгой математикой и субъективным восприятием.

Детекция синтетики — это непрерывный процесс адаптации. Генеративные модели (Midjourney, FLUX, DALL-E) становятся совершеннее с каждым обновлением, стирая артефакты, за которые цепляются наши алгоритмы. И мы, как разработчики, вынуждены постоянно искать новые паттерны и обновлять модели, чтобы сохранять качество распознавания.

Идеального детектора не существует. Всегда найдется False Positive, который заденет автора фото, и False Negative, который пропустит фейк. Но понимание того, как работают метрики, матрица ошибок и природа данных, позволяет не требовать от инструмента магии, а использовать его как объективного помощника в анализе контента.

Мы находимся в стадии открытого бета-тестирования. Для нас каждый ваш «сложный случай», каждая ошибка модели на пережатом скриншоте — это точка роста. Мы не боимся критики, потому что именно она помогает нам повысить качество детектора и улучшать датасеты.

Поэтому мы приглашаем вас попробовать инструмент самостоятельно. Загружайте фото, проверяйте свои гипотезы и делитесь результатами. Только на стыке технологий и реального пользовательского опыта мы сможем сделать этот продукт лучше.

👉 Попробовать детектор: aidetector.rwb.ru

Источник

Возможности рынка
Логотип Sleepless AI
Sleepless AI Курс (AI)
$0.03859
$0.03859$0.03859
-2.17%
USD
График цены Sleepless AI (AI) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.