full screen background image

Минобороны США и Anthropic не могут прийти к согласию по вопросу использования нейросети Claude в военных целях

Минобороны США и Anthropic не могут прийти к согласию по вопросу использования нейросети Claude в военных целях

Министерство обороны США и компания‑разработчик ИИ‑технологий Anthropic не могут прийти к согласию по вопросу использования нейросети Claude в военных целях. Как сообщает Axios со ссылкой на источники, разногласия касаются принципов применения искусственного интеллекта в оборонной сфере.

Пентагон намерен активно задействовать нейросети в боевых задачах — от планирования операций до наведения высокоточного оружия. Военное ведомство настаивает на снятии ограничений, которые компании обычно прописывают в пользовательских соглашениях. В свою очередь, Anthropic твёрдо придерживается собственных правил. Компания запрещает использовать свои модели для автономного наведения оружия, ведения слежки (в том числе внутри США) и любых действий, способных причинить вред.

Летом 2025 года Минобороны США заключило соглашения с четырьмя ведущими ИИ‑компаниями — Anthropic, OpenAI, Google и xAI. Каждое из соглашений могло достигать суммы в $200 млн; их цель — разработка ИИ‑решений для национальной безопасности. Контракт с Anthropic рассчитан на два года. Однако из‑за непримиримых позиций сторон Пентагон рассматривает возможность расторгнуть договор. Заменить нейросеть Claude будет непросто — она обладает технологическими преимуществами для решения специфических государственных задач.

Ситуация обострилась после публикации The Wall Street Journal о возможном использовании Claude в спецоперации американских сил по захвату президента Венесуэлы Николаса Мадуро. По данным издания, в ходе операции были нанесены удары по объектам в Каракасе. Anthropic отказалась комментировать причастность своей нейросети к операции, но подчеркнула, что любое применение Claude должно соответствовать внутренней политике компании. При этом правила Anthropic прямо запрещают использовать ИИ для насилия, разработки вооружений и организации слежки.

По информации Axios, Минобороны настаивает на том, чтобы все четыре компании разрешили использовать их технологии «для всех законных целей», включая разработку оружия, сбор разведданных и боевые операции. Реакция разработчиков различается. Одна компания уже согласилась на условия Пентагона, две другие демонстрируют готовность к компромиссам, а Anthropic сохраняет наиболее жёсткую позицию.

OpenAI уже пошла на уступки, открыв доступ к своим инструментам для 3 млн сотрудников оборонного ведомства и сняв часть ограничений на использование ChatGPT.

Этот конфликт обнажает фундаментальное противоречие современной эпохи: с одной стороны — стремление военных интегрировать передовые ИИ‑технологии в боевые операции, с другой — этические принципы компаний‑разработчиков, которые опасаются неконтролируемого применения искусственного интеллекта.

Исход переговоров остаётся неопределённым. От него зависит не только судьба контракта на $200 млн, но и то, как в дальнейшем будут выстраиваться отношения между оборонным ведомством США и индустрией ИИ.

Другие публикации по теме

Google поможешь медиа-сайтам решить проблему с AI Overviews

Google поможешь медиа-сайтам решить проблему с AI Overviews

Google планирует заключить более целенаправленные сделки с новостными изданиями — об этом заявила Сулина Коннал (Sulina Connal), управляющий директор компании по партнёрству в сфере новостей и книг в Европе. Выступая 11 февраля 2026 года на конференции FT Strategies News in the Digital Age в Лондоне, она подтвердила, что компания уже ведёт активные переговоры с издателями и корректирует свои продукты с учётом их обратной связи.

Сегодня в 20:30

0

Форум

Sony AI разработала технологию для анализа «источников вдохновения» ИИ‑музыки

Sony AI разработала технологию для анализа «источников вдохновения» ИИ‑музыки

Исследовательское подразделение Sony AI представило технологию, способную анализировать музыкальные треки, созданные с помощью искусственного интеллекта, и выявлять реальные композиции, которые послужили для них источником вдохновения.

Сегодня в 19:10

4

Форум

Голливуд очень испугался нейросеть Seedance 2.0

Голливуд очень испугался нейросеть Seedance 2.0

Голливудские организации ополчились на новую модель искусственного интеллекта Seedance 2.0 от китайской ByteDance, обвинив компанию в массовом нарушении авторских прав.

Вчера в 11:45

12

Форум




Добавить комментарий