Пентагон грозит разорвать отношения с компанией Anthropic из-за этических ограничений и называет Claude угрозой национальной безопасности.
Фон отношений
Изначально отношения между Пентагоном и Anthropic начались в 2025–2026 через контракт на сумму до $200 млн. Anthropic предоставляла доступ к своим моделям для "национальной безопасности". В основном на несекретных (unclassified) сетях, для задач вроде анализа данных или административных инструментов.
Но с самого начала Anthropic настаивала на своих правилах использования: их ИИ нельзя использовать для разработки оружия и других этически рискованных вещей. Пентагон это принял, но теперь хочет снять все ограничения для "всех законных целей", включая оружие, разведку и боевые операции. То есть старт был осторожный, с этическими рамками, но сейчас Пентагон давит на полный доступ.
Подробности разногласий
Корень разногласий именно в этических ограничениях. Anthropic — компания с сильным фокусом на безопасность ИИ, основанная выходцами из OpenAI, которые ушли из-за опасений по поводу милитаризации. Они не хотят снимать запреты на:
🔹 Автономное наведение оружия (чтобы ИИ не решал, кого убивать без человека).
🔹 Массовое внутреннее слежение в США (spyware на американцев).
🔹 Другие чувствительные области вроде разработки оружия или боевых операций.
Пентагон же требует полного снятия этих ограничений для четырёх ключевых ИИ-компаний (Anthropic, OpenAI, Google, xAI), аргументируя национальной безопасностью. Переговоры длятся с января 2026, и Пентагону надоело, что Anthropic упирается, в отличие от других (OpenAI и Google уже пошли на уступки в несекретных сетях). Если Anthropic не сдастся, Пентагон грозит разорвать контракт или сильно его урезать.
🔗Связь с Венесуэлой
Есть намёки, что триггером разногласий могло стать возможное использование Claude в реальной военной операции. Речь идёт о захвате Николаса Мадуро в Венесуэле в январе 2026. Пентагон якобы задействовал ИИ через партнёра Palantir, что могло нарушить политику Anthropic (запрет на насильственные действия или оружие). Anthropic отрицает прямые обсуждения по операции, но это добавило масла в огонь переговоров.
Пока отношения между Пентагоном и Anthropic не разорваны официально, но всё на столе.
Коротко по ситуации с другими ИИ-компаниями
По данным на февраль текущего года OpenAI, Google и xAI пошли на значительные уступки Пентагону, в отличие от Anthropic.
OpenAI (ChatGPT)
В феврале 2026 OpenAI заключила сделку, чтобы ChatGPT интегрировали в платформу GenAI.mil.
GenAI.mil — несекретная (unclassified) сеть для 3+ млн сотрудников DoD (Department of Defense — Департамент обороны США или Department of War — Департамент войны в 2026).
OpenAI сняла многие типичные ограничения, которые работают для обычных пользователей, хотя некоторые защитные механизмы остались.
Пентагон настаивает на использовании ИИ в любых законных целях, включая разработку оружия, разведку, военные операции на поле боя. OpenAI согласилась на это для unclassified использования, и идут переговоры о classified сетях, где снимают ещё более жёсткие ограничения.
Раньше OpenAI имела запрет на использование своего ИИ в военке, но в 2024–2025 его тихо убрали, и теперь компания активно сотрудничает с Пентагоном (заключён контракт до $200 млн с 2025 года).
Google (Gemini)
Google была первой компанией, интегрировавшей Gemini в GenAI.mil. Это произошло в декабре 2025 – январе 2026.
Они тоже сняли часть ограничений для военных нужд, согласились на использование своего ИИ для "всех законных целей" в unclassified.
Переговоры о classified сетях также идут, и Google показали гибкость в данном вопросе. Они не сопротивляются так сильно, как Anthropic.
В 2025 Google обновила принципы ИИ, разрешив использование в оружии и слежке. Хотя ранее, с 2018 года, был запрет.
xAI (Grok)
xAI тоже интегрировали Grok в GenAI.mil. Анонс был в декабре 2025, ранний запуск в 2026.
Они согласились снять защитные механизмы для Пентагона и использовать Grok во "всех законных целях".
xAI Илона Маска изначально позиционировала себя как максимально открытую/про-военную компанию, в отличие от "safety-first" Anthropic и OpenAI старых времён. Поэтому у xAI нет публичных признаков сопротивления, наоборот, они в числе тех, кто быстро пошёл на уступки.
Переговоры о classified тоже в процессе.
Для справки:
Unclassified сети — несекретные, открытые для обычного использования. Это "офисный" уровень, безопасный для админ-задач и экспериментов. GenAI.mil именно там.
Здесь обрабатывают Controlled Unclassified Information (CUI) — чувствительную, но не сверхсекретную инфу: административные задачи, логистика, анализ открытых данных, повседневные отчёты, генерация текстов, кода, изображений для небоевых нужд. Доступ имеют миллионы сотрудников (военные, гражданские, подрядчики). Это "низкий" уровень риска, как обычный корпоративный интранет, только военный.
Classified сети — секретные, закрытые. Это "боевой" уровень, где ИИ может реально влиять на жизнь/смерть, и тут этические барьеры компаний ломаются о военную необходимость. Это уровни Secret (секретно), Top Secret (совершенно секретно) и выше — сети вроде SIPRNet (Secret Internet Protocol Router Network), JWICS (для Top Secret) и другие.
Здесь работают с настоящими военными секретами: планы операций, разведданные, разработка оружия, автономные системы наведения, целеуказание, миссионное планирование, реальные боевые сценарии. Доступ строго ограничен, всё изолировано и жёстко мониторится.
Пока ИИ-модели типа Claude от Anthropic там есть только частично — через промежуточные провайдеры, и то с жёсткими политиками компании вроде запрета на оружие, автономное наведение и т.д.
Пентагон хочет именно сюда запустить самые мощные модели без сильных ограничений и использовать их для "всех законных целей", включая боевые применения. Но компании (особенно Anthropic) сопротивляются либо идут на уступки частично, потому что это риск, так как ИИ может помочь в разработке оружия или слежке.
Что по итогу
Пентагон давит на всех четырёх (OpenAI, Google, xAI, Anthropic) за полный доступ без этических барьеров, включая автономное наведение, массовую слежку, разработку оружия.
OpenAI, Google, xAI — уже сняли многие ограничения для unclassified и готовы договариваться на дальнейшее снятие ограничений. Anthropic — единственная компания, которая упорно держится за запреты на автономное наведение и внутреннюю слежку. Из-за этого Пентагон грозит разорвать с Anthropic контракт на сумму до $200 млн.
Это не значит, что OpenAI, Google и xAI теперь разрешают всё-всё официально (некоторые защитные механизмы остаются, особенно на classified... пока), но они гораздо ближе к "да, используйте как угодно в рамках закона", чем Anthropic.
И если сравнивать Anthropic и OpenAI, то в данной ситуации Anthropic выглядит последовательнее: компания держится за Конституционный ИИ с запретом на смертоносное автономное оружие и массовый внутренний надзор, не отступает от изначальной политики и из-за этого Пентагон так психует и грозит разорвать контракт. Это создаёт сильный контраст с OpenAI, которая поёт про "пользу для человечества", а потом втихаря помогает строить инструменты, способные убивать или шпионить.