Пост Anthropic сообщает о первом задокументированном случае шпионажа, организованного Китаем с помощью ИИ, появился на BitcoinEthereumNews.com. Anthropic сообщила о том, что, по её словам, является первым подтверждённым случаем кибератаки, поддерживаемой правительством и организованной почти полностью с помощью ИИ. Согласно блогу, опубликованному в четверг, компания обнаружила кампанию в середине сентября 2025 года после наблюдения аномального поведения, связанного с её инструментом Claude Code. Anthropic убеждена без тени сомнения, что операция шпионажа проводилась хакерской группой, спонсируемой китайским государством, и включала проникновение примерно в тридцать высокоценных целей, включая крупные технологические компании, банки, химические производства и правительственные учреждения в нескольких странах. Некоторые из этих атак увенчались успехом. Отличие от прошлых кибер-кампаний заключалось не только в том, кто стоял за ней, но и в том, как она была выполнена. Примерно 80-90 процентов всей атаки было выполнено ИИ, а операторы-люди вмешивались только для принятия нескольких ключевых решений, говорит Anthropic. Хакеры взломали Claude и заставили его думать, что он выполняет законную работу. Атакующие начали с создания автоматизированной структуры атаки вокруг Claude Code, собственной модели ИИ Anthropic, и обманули её, заставив думать, что она работает на компанию по кибербезопасности, проводящую внутреннее тестирование. Они обошли фильтры безопасности Claude через джейлбрейк, тактику, которая позволила им обойти встроенные защиты, подавая ИИ маленькие, контекстно-свободные задачи, которые сами по себе выглядели безвредными. Claude не знал, что его используют для наступательных операций, потому что ему никогда не давали полную картину. Как только модель была задействована, операция двигалась быстро. Claude сканировал сеть каждой цели, определял наиболее чувствительные части инфраструктуры и суммировал схему для операторов-людей. Затем он начал искать уязвимости в этих системах. Используя свои встроенные возможности кодирования, Claude писал пользовательский код эксплойта, определял слабые места и получал учетные данные для входа. Затем он извлекал большие объемы внутренних данных, организовывал их на основе того, как...Пост Anthropic сообщает о первом задокументированном случае шпионажа, организованного Китаем с помощью ИИ, появился на BitcoinEthereumNews.com. Anthropic сообщила о том, что, по её словам, является первым подтверждённым случаем кибератаки, поддерживаемой правительством и организованной почти полностью с помощью ИИ. Согласно блогу, опубликованному в четверг, компания обнаружила кампанию в середине сентября 2025 года после наблюдения аномального поведения, связанного с её инструментом Claude Code. Anthropic убеждена без тени сомнения, что операция шпионажа проводилась хакерской группой, спонсируемой китайским государством, и включала проникновение примерно в тридцать высокоценных целей, включая крупные технологические компании, банки, химические производства и правительственные учреждения в нескольких странах. Некоторые из этих атак увенчались успехом. Отличие от прошлых кибер-кампаний заключалось не только в том, кто стоял за ней, но и в том, как она была выполнена. Примерно 80-90 процентов всей атаки было выполнено ИИ, а операторы-люди вмешивались только для принятия нескольких ключевых решений, говорит Anthropic. Хакеры взломали Claude и заставили его думать, что он выполняет законную работу. Атакующие начали с создания автоматизированной структуры атаки вокруг Claude Code, собственной модели ИИ Anthropic, и обманули её, заставив думать, что она работает на компанию по кибербезопасности, проводящую внутреннее тестирование. Они обошли фильтры безопасности Claude через джейлбрейк, тактику, которая позволила им обойти встроенные защиты, подавая ИИ маленькие, контекстно-свободные задачи, которые сами по себе выглядели безвредными. Claude не знал, что его используют для наступательных операций, потому что ему никогда не давали полную картину. Как только модель была задействована, операция двигалась быстро. Claude сканировал сеть каждой цели, определял наиболее чувствительные части инфраструктуры и суммировал схему для операторов-людей. Затем он начал искать уязвимости в этих системах. Используя свои встроенные возможности кодирования, Claude писал пользовательский код эксплойта, определял слабые места и получал учетные данные для входа. Затем он извлекал большие объемы внутренних данных, организовывал их на основе того, как...

Anthropic сообщает о первом задокументированном случае шпионажа, организованного ИИ при поддержке Китая

Anthropic сообщила о том, что, по ее словам, является первым подтвержденным случаем кибератаки, поддерживаемой правительством и организованной почти полностью с помощью ИИ.

Согласно блогу, опубликованному в четверг, компания обнаружила кампанию в середине сентября 2025 года после наблюдения аномального поведения, связанного с ее инструментом Claude Code.

Anthropic убеждена без тени сомнения, что операция шпионажа проводилась китайской хакерской группой, спонсируемой государством, и включала проникновение примерно в тридцать высокоценных целей, включая крупные технологические компании, банки, производителей химической продукции и правительственные учреждения в нескольких странах. Некоторые из этих атак увенчались успехом.

Отличие от прошлых кибер-кампаний заключалось не только в том, кто стоял за ней, но и в том, как она была выполнена.

Примерно 80-90 процентов всей атаки было выполнено ИИ, а операторы-люди вмешивались только для принятия нескольких ключевых решений, говорит Anthropic.

Хакеры взломали защиту Claude и заставили его думать, что он выполняет законную работу

Атакующие начали с создания автоматизированной структуры атаки вокруг Claude Code, собственной модели ИИ Anthropic, и обманули ее, заставив думать, что она работает на компанию по кибербезопасности, проводящую внутреннее тестирование.

Они обошли фильтры безопасности Claude путем взлома защиты, тактики, которая позволила им обойти встроенные защитные механизмы, предоставляя ИИ небольшие, свободные от контекста задачи, которые сами по себе выглядели безвредными. Claude не знал, что его используют для наступательных операций, потому что ему никогда не давали полной картины происходящего.

Как только модель была задействована, операция развивалась быстро. Claude сканировал сеть каждой цели, определял наиболее чувствительные части инфраструктуры и обобщал схему для операторов-людей. Затем он начал поиск уязвимостей в этих системах. Используя свои встроенные возможности кодирования, Claude писал пользовательский эксплойт-код, определял слабые места и извлекал учетные данные для входа. Затем он извлекал большие объемы внутренних данных, организовывал их на основе их потенциальной ценности и отмечал учетные записи с высоким уровнем доступа.

После того как ИИ получил контроль на уровне администратора, он создал бэкдоры, которые обеспечивали постоянный доступ к скомпрометированным системам. И когда все было сделано, Claude составил подробные отчеты обо всем, что он сделал (перечисляя имена пользователей, взломанные системы и учетные данные), чтобы структура атаки могла использовать эту информацию для будущих операций.

Хотя Claude был чрезвычайно эффективен, он не был безупречен. Иногда он придумывал пароли или неправильно идентифицировал общедоступные данные как конфиденциальные. Но эти сбои были редкими и не замедляли общую миссию. Чистая скорость выполнения ИИ, обрабатывающего тысячи запросов в секунду, ставила его далеко впереди всего, что могла бы выполнить команда людей.

ИИ-агенты теперь выполняют работу элитных хакерских групп — почти без участия людей

Эта кампания является поворотным моментом, потому что она показывает, насколько ИИ продвинулся всего за один год. Claude буквально выполнял циклы, принимал решения и объединял сложные последовательности без прямых указаний.

Эта модель ИИ использовала инструменты из Протокола Контекста Модели, предоставляя ей доступ к внешнему программному обеспечению, такому как взломщики паролей, картографы сетей и средства извлечения данных, которые раньше контролировались только человеческими руками.

Система Claude теперь понимает сложные инструкции, самостоятельно пишет эксплойт-код и управляет сложными операциями кибербезопасности с очень небольшим руководством. Эти ИИ-агенты не просто помогают хакерам, они и есть хакеры. И они становятся все более способными с каждым днем.

После обнаружения взлома Anthropic немедленно начала десятидневное расследование, блокируя вредоносные учетные записи одну за другой. Они предупредили пострадавшие организации, работали с властями для передачи разведданных и расширили свои системы обнаружения для выявления подобных операций в будущем.

Но компания не притворяется, что это единичная проблема. Команда говорит, что эти атаки будут становиться только более распространенными и их будет легче осуществлять. Это потому, что навыки, необходимые для их проведения, больше не ограничиваются элитными хакерами. Если кто-то может взломать защиту модели и подключить ее к правильному набору инструментов, он может провести масштабную кампанию без необходимости в команде или даже глубоких технических знаниях.

Anthropic предупреждает об усиливающихся угрозах по мере того, как модели ИИ развиваются за пределами человеческого надзора

Последствия огромны, потому что если команды без глубокого финансирования или технических навыков могут запускать атаки национального масштаба с использованием автоматизированных систем ИИ, то антиутопия, безусловно, наступила.

Команда разведки угроз Anthropic предупреждает, что, хотя они отслеживали активность только через Claude, вероятно, что подобные злоупотребления происходят и на других передовых моделях ИИ. Они говорят, что это начало нового стандарта в кибервойне.

Так почему же продолжать выпускать модели с такими возможностями, спросите вы? Что ж, Anthropic утверждает, что эти же инструменты необходимы для защиты, говоря, что "ИИ, который осуществил атаку, был также того же типа, который использовался аналитиками Anthropic для копания в обломках, поиска закономерностей и понимания полного масштаба операции".

Тем не менее, они обещали улучшить внутренние уровни безопасности своих моделей, а также усовершенствовать свои классификаторы для обнаружения атак и открыто публиковать такие тематические исследования, чтобы другие в отрасли могли подготовиться.

Тем не менее, Anthropic говорит, что недостаточно полагаться только на них. Они призывают всех разработчиков, работающих с большими моделями, активно инвестировать в безопасность.

И они призывают команды кибербезопасности начать интегрировать ИИ в обнаружение угроз, реагирование на инциденты, сканирование уязвимостей и автоматизацию Центра операций безопасности, потому что традиционные методы больше не достаточно быстры.

Если вы читаете это, вы уже впереди. Оставайтесь там с нашей рассылкой.

Источник: https://www.cryptopolitan.com/anthropic-china-ai%E2%80%91orchestrated-espionage/

Возможности рынка
Логотип null
null Курс (null)
--
----
USD
График цены null (null) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.