Сообщается, что военные США использовали ИИ Claude от Anthropic во время крупного авиаудара по Ирану, эта информация появилась всего через несколько часов после того, как президент Дональд ТрампСообщается, что военные США использовали ИИ Claude от Anthropic во время крупного авиаудара по Ирану, эта информация появилась всего через несколько часов после того, как президент Дональд Трамп

Военные США использовали Anthropic для удара по Ирану, несмотря на запрет Трампа: WSJ

2026/03/01 19:49
7м. чтение
Us Military Used Anthropic For Iran Strike Despite Trump's Ban: Wsj

Военные США, как сообщается, использовали ИИ-агент Claude от Anthropic во время крупного авиаудара по Ирану — событие, которое произошло всего через несколько часов после того, как президент Дональд Трамп приказал федеральным агентствам прекратить использование этой модели. Командования в регионе, включая CENTCOM, как сообщается, использовали Claude для поддержки анализа разведданных, проверки целей и моделирования боевых действий. Этот эпизод подчеркивает, насколько глубоко инструменты ИИ-агент интегрированы в оборонные операции, даже когда политики стремятся разорвать связи с определенными поставщиками. Инцидент подчеркивает противоречие между исполнительными директивами и автоматизацией на местах, что может повлиять на закупки и управление рисками в оборонных программах.

Ключевые выводы

  • ИИ-агент Claude был развернут для анализа разведданных, проверки целей и моделирования боевых действий в связи с крупным авиаударом через несколько часов после директивы Белого дома о приостановке использования системы.
  • Anthropic ранее получила многолетний контракт с Пентагоном стоимостью до 200 000 000 $, включая сотрудничество с Palantir и Amazon Web Services для обеспечения классифицированных рабочих процессов для Claude.

  • Администрация Трампа дала указание агентствам прекратить работу с Anthropic и распорядилась, чтобы Министерство обороны относилось к компании как к потенциальной угрозе безопасности после того, как переговоры по контракту сорвались из-за неограниченного военного использования.

  • Пентагон начал определять замещающих поставщиков и перешел к развертыванию других моделей ИИ-агент в классифицированных сетях, включая сотрудничество с OpenAI для таких развертываний.

  • Генеральный директор Anthropic Дарио Амодеи публично возразил против запрета, утверждая, что определенные военные применения пересекают этические границы и должны оставаться под контролем человека, а не автоматизированным массовым наблюдением или автономным вооружением.

Настроение: Нейтральное

Рыночный контекст: Эпизод находится на пересечении оборонных закупок, этики ИИ-агент и управления рисками национальной безопасности, поскольку агентства пересматривают зависимость от поставщиков и классификацию инструментов ИИ-агент для конфиденциальных операций.

Почему это важно

Инцидент дает редкое представление о том, как коммерческие модели ИИ-агент интегрируются в военные рабочие процессы с высокими ставками. Claude, изначально разработанный для широких когнитивных задач, как сообщается, поддерживал анализ разведданных и моделирование боевых сценариев, что свидетельствует об уровне оперативного доверия, который выходит за рамки лабораторных условий в реальные миссии. Это поднимает важные вопросы о надежности, аудите и управляемости ИИ-агент в планировании боевых действий, особенно когда политические сигналы правительства быстро меняются в отношении использования поставщиков.

На политическом уровне противоречие между контрактными отношениями и президентской директивой подчеркивает более широкую дискуссию о том, как следует относиться к поставщикам ИИ-агент в защищенных средах. Отказ Anthropic предоставить неограниченное военное использование соответствует заявленным этическим границам компании, сигнализируя о том, что частные поставщики могут все чаще отказываться от конфигураций, которые они считают этически проблематичными. Ответ Пентагона — обращение к альтернативным поставщикам для классифицированных рабочих нагрузок — иллюстрирует, как министерства обороны могут диверсифицировать экосистемы ИИ-агент для снижения подверженности рискам, сохраняя при этом возможности в конфиденциальных операциях.

Напряженность также касается конкурентной динамики рынка ИИ-агент как услуги. Поскольку OpenAI, как сообщается, вмешивается для предоставления моделей для классифицированных сетей, сектор, вероятно, станет свидетелем продолжающихся экспериментов и пересмотра условий в отношении классификации безопасности, управления данными и рисков цепочки поставок. Ситуация подчеркивает необходимость строгих рамок управления, которые могут адаптироваться к быстрым технологическим изменениям без ущерба для оперативной безопасности или этических стандартов.

На что обратить внимание дальше

  • Регуляторные и политические обновления от Министерства обороны и Белого дома относительно использования поставщиков ИИ-агент и классификаций безопасности.
  • Любые новые закупки или партнерства, расширяющие возможности ИИ-агент для классифицированных миссий, включая потенциальные соглашения с альтернативными поставщиками для замены или дополнения предложений Anthropic.
  • Публичные заявления от Anthropic и OpenAI о характере развертываний в защищенных сетях и любых новых ограничениях или мерах предосторожности.
  • Дальнейшие подробности о результатах более ранних переговоров о неограниченном использовании и о том, как это повлияет на будущие контракты с поставщиками ИИ-агент в сфере обороны.

Источники и проверка

  • Отчеты об использовании Claude в операции на Ближнем Востоке и приказе администрации о приостановке, включая доказательства, обсужденные с источниками, знакомыми с этим вопросом.
  • Справочная информация о контракте Anthropic с Пентагоном, включая многолетнее соглашение стоимостью до 200 000 000 $ и партнерства с Palantir и AWS для классифицированных рабочих процессов.
  • Заявления от руководства Anthropic и публичные комментарии о военном использовании и этических границах, включая интервью и официальные ответы на регуляторные действия.
  • Развертывание OpenAI в классифицированных сетях и связанные обсуждения, включая публичный дискурс вокруг сделки с военными США и соответствующее освещение.
  • Публичные обсуждения и ссылки в социальных сетях, связанные с соглашением OpenAI с военными, такие как посты, документирующие реакцию отрасли.

Claude от Anthropic под прицелом: ИИ-агент, этика и политика сталкиваются в оборонных операциях

Официальные лица описали Claude как играющий роль в анализе разведданных и оперативном планировании во время крупного авиаудара по Ирану — утверждение, которое иллюстрирует, насколько близко инструменты ИИ-агент подошли к принятию решений на поле боя. Хотя администрация Трампа решила разорвать связи с Anthropic, оперативное использование Claude, как сообщается, продолжалось в некоторых командованиях, что подчеркивает разрыв между политическими заявлениями и повседневными оборонными рабочими процессами. Практическая реальность такова, что анализы, симуляции и Оценка рисков, управляемые ИИ-агент, могут проникать в планирование миссий, даже когда агентства пересматривают риски поставщиков и требования соответствия в департаментах.

Предыдущее взаимодействие Пентагона с Anthropic было значительным: многолетний контракт стоимостью до 200 000 000 $ и сеть партнерств, включая Palantir и Amazon Web Services, которые обеспечили использование Claude для обработки классифицированной информации и обработки разведданных. Соглашение подчеркнуло более широкую стратегию: диверсифицировать возможности ИИ-агент в доверенной экосистеме для обеспечения устойчивости в конфиденциальных условиях. Однако, когда политические направления изменились, администрация решила пересмотреть отношения с поставщиком, сигнализируя о пересмотре на основе рисков, а не о полном отходе от оборонных операций с использованием ИИ-агент.

За кулисами на первый план вышла напряженность между государственной политикой и этикой частного сектора. Министр обороны Пит Хегсет, как сообщается, настаивал на том, чтобы Anthropic разрешила неограниченное военное использование своих моделей — запрос, который руководство Anthropic отклонило как пересекающий этические линии, которые компания не пересечет. Позиция компании основана на убеждении, что определенные виды использования — массовое внутреннее наблюдение и полностью автономное оружие — вызывают глубокие этические и правовые проблемы, и что значимый контроль со стороны человека должен пережить переход от концепции к исполнению. Эта позиция соответствует продолжающимся дебатам о том, как сбалансировать быстрое внедрение ИИ-агент с мерами защиты от злоупотреблений и непредвиденных последствий.

Со своей стороны, Пентагон не стоял на месте. Столкнувшись с потенциальным пробелом в поставках, он начал выстраивать замены и, как сообщается, достиг соглашения с OpenAI о развертывании моделей в классифицированных сетях. Этот сдвиг подчеркивает более широкий стратегический шаг для обеспечения непрерывности возможностей, даже когда поставщики пересматривают свои условия для конфиденциальных развертываний. Контраст между этическими границами Anthropic и оперативными потребностями департамента раскрывает более широкое политическое противоречие: как ответственно использовать трансформационные технологии, сохраняя при этом императивы национальной безопасности.

Наблюдатели отрасли также отметили экосистемные эффекты таких переходов. Рынок ИИ-агент развивается в направлении более модульных конфигураций с допуском безопасности, которые можно заменять или обновлять по мере изменения политики и Оценка рисков. Соглашение с OpenAI, в частности, сигнализирует о продолжающемся стремлении к интеграции ведущих моделей в оборонные сети, хотя и при строгом управлении и надзоре. Хотя эта траектория обещает расширенные возможности для военных аналитиков и планировщиков, она также повышает контроль вокруг обработки данных, интерпретируемости моделей и риска чрезмерной зависимости от автоматизированных систем для критических решений.

Генеральный директор Anthropic Дарио Амодеи утверждал, что, хотя ИИ-агент может дополнить человеческое суждение, он не может заменить его в основных оборонных решениях. В публичных заявлениях он подтвердил приверженность компании этическим границам и поддержанию контроля со стороны человека в ключевые моменты. Напряженность между сохранением доступа к передовым инструментам и соблюдением этических стандартов, вероятно, будет формировать будущие переговоры с федеральными агентствами, особенно когда законодатели и регуляторы изучают роль ИИ-агент в гражданском и национально-безопасном контекстах.

По мере развития ландшафта более широкие криптовалютные и технологические сообщества будут наблюдать за тем, как эти политические и закупочные динамики влияют на разработку и развертывание передовых систем ИИ-агент в средах с высокими ставками. Этот эпизод служит примером балансирования быстрого технологического прогресса с управлением, надзором и неизменным вопросом о том, где заканчивается ответственность человека и начинается автоматизированное принятие решений.

Эта статья была первоначально опубликована как US military used Anthropic for Iran strike despite Trump's ban: WSJ на Crypto Breaking News — вашем надежном источнике криптовалютных новостей, новостей Bitcoin и обновлений блокчейна.

Возможности рынка
Логотип StrikeBit AI
StrikeBit AI Курс (STRIKE)
$0.006269
$0.006269$0.006269
+0.04%
USD
График цены StrikeBit AI (STRIKE) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.