На этой неделе Securonix представил Sam, ИИ-аналитика SOC, и Agentic Mesh в сотрудничестве с Amazon Web Services. Главное — это не еще одна функция ИИ. Это переход к модели ИИ, основанной на продуктивности.
Вы когда-нибудь наблюдали, как ваша команда SOC тонет в оповещениях, а руководство требует «четкого ROI от ИИ»?
Представьте себе это.
8:45 утра. CISO присоединяется к предварительному брифингу совета директоров. За ночь поступило более 40 000 оповещений. Двое аналитиков вызвались на больничный. Регулятор запросил доказательства управления ИИ. Финансовый отдел хочет обоснования роста расходов на SIEM.
Команда использует ИИ. Но они не могут доказать, что он реально дал.
Это пробел, на который нацелен Securonix своим последним запуском в сотрудничестве с Amazon Web Services. Компания представила Sam, ИИ-аналитика SOC, и Securonix Agentic Mesh — наряду с моделью ИИ, основанной на продуктивности, для операций безопасности.
Для руководителей CX и EX это не просто новость о кибербезопасности. Это схема управляемого ИИ в масштабе.
Модель ИИ, основанная на продуктивности, измеряет ИИ по выполненной работе, а не по использованию или потребленным данным.
Большинство корпоративных моделей ценообразования ИИ отслеживают токены, хранилище или функции. Эта модель поощряет потребление. Она редко доказывает результаты.
Securonix переворачивает эту логику.
Sam лицензируется на основе проверенной работы, эквивалентной аналитику, выполненной ИИ. Производительность отслеживается прозрачно. Руководители могут количественно определить сэкономленные часы и полученную пропускную способность.
Для руководителей CX и EX это переосмысливает ценность ИИ:
Этот сдвиг отражает то, с чем сталкиваются лидеры CX с ИИ для пути клиента и сопилотами. Совет директоров не хочет статистику использования чат-ботов. Он хочет показатели перенаправления, сокращение времени разрешения и улучшение стоимости обслуживания.
Безопасность теперь говорит на том же языке.
Sam — это управляемый, постоянно активный цифровой коллега SOC, который автоматизирует работу уровня 1 и уровня 2 внутри Unified Defense SIEM.
Sam выполняет:
Он работает изначально внутри платформы Securonix. Аналитики сохраняют контроль через надзор с участием человека в цикле.
Многие ИИ-сопилоты помогают. Немногие работают как структурированные системы работы. Sam координирует специализированных ИИ-агентов на этапах расследования. Он представляет резюме на простом языке, которые аналитики могут проверить или эскалировать.
Результат: ИИ дополняет суждение. Он не заменяет его.
Потому что большинство развертываний ИИ масштабируются быстрее, чем структуры контроля.
Руководители безопасности сталкиваются с тремя напряжениями:
Совет директоров теперь задает более сложные вопросы:
Неструктурированный ИИ не может ответить на них.
Вот где вступает Securonix Agentic Mesh.
Agentic Mesh — это управляемый уровень оркестровки, координирующий специализированных ИИ-агентов по обнаружению, расследованию, реагированию и отчетности.
В отличие от монолитных помощников, Agentic Mesh функционирует как система работы.
Он:
Построенный с использованием Amazon Bedrock AgentCore, он работает безопасно в средах клиентов. Это обеспечивает изоляцию и устойчивость корпоративного уровня.
Сопилоты отвечают на вопросы.
Агентные системы выполняют управляемые рабочие процессы.
Это различие меняет зрелость корпоративного ИИ.
Руководители безопасности все чаще работают под надзором совета директоров. ИИ должен доказать доверие, а не обещать его.
По словам Sameer Ratolikar, CISO в HDFC Bank:
Simon Hunt, руководитель технологического отдела в Securonix, четко формулирует проблему:
Для разговоров с советом директоров ИИ, основанный на продуктивности, позволяет:
DPM Flex направляет телеметрию на основе аналитической ценности, а не необработанного объема, для контроля затрат на SIEM.
Производительность ИИ рушится, если затраты на данные растут.
Data Pipeline Manager с гибким потреблением (DPM Flex) вводит экономику данных, ориентированную на результат. Вместо того чтобы поглощать все, он приоритизирует телеметрию с высокой ценностью.
Для параллелей с CX:
Управление затратами — это часть управления ИИ.
1. Измеряйте ИИ по выполненной работе.
Метрики внедрения мало что значат без метрик результата.
2. Встройте управление внутри системы.
Ретроактивное соблюдение хрупко.
3. Защитите человеческий надзор.
ИИ лучше всего масштабируется, когда он дополняет суждение.
4. Согласуйте ИИ с финансовыми нарративами.
Совет директоров одобряет результаты, а не экспериментирование.
5. Контролируйте экономику данных заранее.
Масштабирование ИИ без дисциплины затрат создает отрицательную реакцию.
Эти ошибки создают фрагментацию. Они подрывают уверенность руководства.
CXQuest предлагает модель PRODUCT для масштабирования корпоративного ИИ:
P – Определенные единицы продуктивности
Определите измеримые эквиваленты работы.
R – Встроенные ограничения рисков
Обеспечьте соблюдение политики внутри рабочих процессов.
O – Поддерживаемый надзор
Держите людей под контролем эскалации.
D – Управляемая экономика данных
Согласуйте прием с аналитической ценностью.
U – Четкие границы использования
Начните с определенной работы с высоким объемом.
C – Общий контекст между агентами
Избегайте изолированных ИИ-помощников.
T – Прозрачная отчетность для руководства
Переведите результат на финансовый язык.
Securonix операционализирует многие из этих принципов внутри операций безопасности. Команды CX могут адаптировать ту же структуру.
Выгорание аналитиков отражает усталость контакт-центра.
Повторяющаяся работа по сортировке приводит к оттоку.
Отсутствие видимости влияния снижает вовлеченность.
Поглощая шум уровня 1 и уровня 2, Sam позволяет аналитикам сосредоточиться на более рискованных решениях.
ИИ должен устранять рутину, а не автономию.
Безопасность часто пионеризирует структуры управления до того, как их принимает CX.
Переход к оркестровке агентного ИИ предполагает, что следующая фаза корпоративного ИИ будет сосредоточена на:
Совет директоров будет все чаще спрашивать:
Сколько работы выполнил ИИ?
Был ли он под контролем?
Можем ли мы его защитить?
Эта модель напрямую отвечает на эти вопросы.
Он связывает затраты с проверенной выполненной работой, а не с использованием данных или функций.
Это относится к системам ИИ, которые координируют специализированных агентов для выполнения структурированных рабочих процессов.
Аналитики проверяют, подтверждают или отменяют действия, сгенерированные ИИ, перед выполнением.
Сбои в безопасности несут регуляторные и финансовые риски. Решения ИИ должны быть объяснимыми.
Да. Любой рабочий процесс с высоким объемом и управляемый правилами может принять измерение ИИ, основанное на продуктивности.
Sam, ИИ-аналитик SOC, Agentic Mesh и DPM Flex доступны по всему миру для клиентов Securonix.
Более глубокий сдвиг очевиден.
ИИ должен выполнять реальную работу.
Он должен управляться по замыслу.
И его ценность должна выдержать проверку в зале заседаний совета директоров.
Пост Модель ИИ, основанная на продуктивности: как Securonix переопределяет управляемый ИИ для результатов SOC впервые появился на CX Quest.


