Военные США, как сообщается, использовали ИИ-агент Claude от Anthropic во время крупного авиаудара по Ирану — событие, которое произошло всего через несколько часов после того, как президент Дональд Трамп приказал федеральным агентствам прекратить использование этой модели. Командования в регионе, включая CENTCOM, как сообщается, использовали Claude для поддержки анализа разведданных, проверки целей и моделирования боевых действий. Этот эпизод подчеркивает, насколько глубоко инструменты ИИ-агент интегрированы в оборонные операции, даже когда политики стремятся разорвать связи с определенными поставщиками. Инцидент подчеркивает противоречие между исполнительными директивами и автоматизацией на местах, что может повлиять на закупки и управление рисками в оборонных программах.
Anthropic ранее получила многолетний контракт с Пентагоном стоимостью до 200 000 000 $, включая сотрудничество с Palantir и Amazon Web Services для обеспечения классифицированных рабочих процессов для Claude.
Администрация Трампа дала указание агентствам прекратить работу с Anthropic и распорядилась, чтобы Министерство обороны относилось к компании как к потенциальной угрозе безопасности после того, как переговоры по контракту сорвались из-за неограниченного военного использования.
Пентагон начал определять замещающих поставщиков и перешел к развертыванию других моделей ИИ-агент в классифицированных сетях, включая сотрудничество с OpenAI для таких развертываний.
Генеральный директор Anthropic Дарио Амодеи публично возразил против запрета, утверждая, что определенные военные применения пересекают этические границы и должны оставаться под контролем человека, а не автоматизированным массовым наблюдением или автономным вооружением.
Настроение: Нейтральное
Рыночный контекст: Эпизод находится на пересечении оборонных закупок, этики ИИ-агент и управления рисками национальной безопасности, поскольку агентства пересматривают зависимость от поставщиков и классификацию инструментов ИИ-агент для конфиденциальных операций.
Инцидент дает редкое представление о том, как коммерческие модели ИИ-агент интегрируются в военные рабочие процессы с высокими ставками. Claude, изначально разработанный для широких когнитивных задач, как сообщается, поддерживал анализ разведданных и моделирование боевых сценариев, что свидетельствует об уровне оперативного доверия, который выходит за рамки лабораторных условий в реальные миссии. Это поднимает важные вопросы о надежности, аудите и управляемости ИИ-агент в планировании боевых действий, особенно когда политические сигналы правительства быстро меняются в отношении использования поставщиков.
На политическом уровне противоречие между контрактными отношениями и президентской директивой подчеркивает более широкую дискуссию о том, как следует относиться к поставщикам ИИ-агент в защищенных средах. Отказ Anthropic предоставить неограниченное военное использование соответствует заявленным этическим границам компании, сигнализируя о том, что частные поставщики могут все чаще отказываться от конфигураций, которые они считают этически проблематичными. Ответ Пентагона — обращение к альтернативным поставщикам для классифицированных рабочих нагрузок — иллюстрирует, как министерства обороны могут диверсифицировать экосистемы ИИ-агент для снижения подверженности рискам, сохраняя при этом возможности в конфиденциальных операциях.
Напряженность также касается конкурентной динамики рынка ИИ-агент как услуги. Поскольку OpenAI, как сообщается, вмешивается для предоставления моделей для классифицированных сетей, сектор, вероятно, станет свидетелем продолжающихся экспериментов и пересмотра условий в отношении классификации безопасности, управления данными и рисков цепочки поставок. Ситуация подчеркивает необходимость строгих рамок управления, которые могут адаптироваться к быстрым технологическим изменениям без ущерба для оперативной безопасности или этических стандартов.
Официальные лица описали Claude как играющий роль в анализе разведданных и оперативном планировании во время крупного авиаудара по Ирану — утверждение, которое иллюстрирует, насколько близко инструменты ИИ-агент подошли к принятию решений на поле боя. Хотя администрация Трампа решила разорвать связи с Anthropic, оперативное использование Claude, как сообщается, продолжалось в некоторых командованиях, что подчеркивает разрыв между политическими заявлениями и повседневными оборонными рабочими процессами. Практическая реальность такова, что анализы, симуляции и Оценка рисков, управляемые ИИ-агент, могут проникать в планирование миссий, даже когда агентства пересматривают риски поставщиков и требования соответствия в департаментах.
Предыдущее взаимодействие Пентагона с Anthropic было значительным: многолетний контракт стоимостью до 200 000 000 $ и сеть партнерств, включая Palantir и Amazon Web Services, которые обеспечили использование Claude для обработки классифицированной информации и обработки разведданных. Соглашение подчеркнуло более широкую стратегию: диверсифицировать возможности ИИ-агент в доверенной экосистеме для обеспечения устойчивости в конфиденциальных условиях. Однако, когда политические направления изменились, администрация решила пересмотреть отношения с поставщиком, сигнализируя о пересмотре на основе рисков, а не о полном отходе от оборонных операций с использованием ИИ-агент.
За кулисами на первый план вышла напряженность между государственной политикой и этикой частного сектора. Министр обороны Пит Хегсет, как сообщается, настаивал на том, чтобы Anthropic разрешила неограниченное военное использование своих моделей — запрос, который руководство Anthropic отклонило как пересекающий этические линии, которые компания не пересечет. Позиция компании основана на убеждении, что определенные виды использования — массовое внутреннее наблюдение и полностью автономное оружие — вызывают глубокие этические и правовые проблемы, и что значимый контроль со стороны человека должен пережить переход от концепции к исполнению. Эта позиция соответствует продолжающимся дебатам о том, как сбалансировать быстрое внедрение ИИ-агент с мерами защиты от злоупотреблений и непредвиденных последствий.
Со своей стороны, Пентагон не стоял на месте. Столкнувшись с потенциальным пробелом в поставках, он начал выстраивать замены и, как сообщается, достиг соглашения с OpenAI о развертывании моделей в классифицированных сетях. Этот сдвиг подчеркивает более широкий стратегический шаг для обеспечения непрерывности возможностей, даже когда поставщики пересматривают свои условия для конфиденциальных развертываний. Контраст между этическими границами Anthropic и оперативными потребностями департамента раскрывает более широкое политическое противоречие: как ответственно использовать трансформационные технологии, сохраняя при этом императивы национальной безопасности.
Наблюдатели отрасли также отметили экосистемные эффекты таких переходов. Рынок ИИ-агент развивается в направлении более модульных конфигураций с допуском безопасности, которые можно заменять или обновлять по мере изменения политики и Оценка рисков. Соглашение с OpenAI, в частности, сигнализирует о продолжающемся стремлении к интеграции ведущих моделей в оборонные сети, хотя и при строгом управлении и надзоре. Хотя эта траектория обещает расширенные возможности для военных аналитиков и планировщиков, она также повышает контроль вокруг обработки данных, интерпретируемости моделей и риска чрезмерной зависимости от автоматизированных систем для критических решений.
Генеральный директор Anthropic Дарио Амодеи утверждал, что, хотя ИИ-агент может дополнить человеческое суждение, он не может заменить его в основных оборонных решениях. В публичных заявлениях он подтвердил приверженность компании этическим границам и поддержанию контроля со стороны человека в ключевые моменты. Напряженность между сохранением доступа к передовым инструментам и соблюдением этических стандартов, вероятно, будет формировать будущие переговоры с федеральными агентствами, особенно когда законодатели и регуляторы изучают роль ИИ-агент в гражданском и национально-безопасном контекстах.
По мере развития ландшафта более широкие криптовалютные и технологические сообщества будут наблюдать за тем, как эти политические и закупочные динамики влияют на разработку и развертывание передовых систем ИИ-агент в средах с высокими ставками. Этот эпизод служит примером балансирования быстрого технологического прогресса с управлением, надзором и неизменным вопросом о том, где заканчивается ответственность человека и начинается автоматизированное принятие решений.
Эта статья была первоначально опубликована как US military used Anthropic for Iran strike despite Trump's ban: WSJ на Crypto Breaking News — вашем надежном источнике криптовалютных новостей, новостей Bitcoin и обновлений блокчейна.


