Как внедрение ИИ угрожает безопасности США? Вот что говорят американские эксперты

Современные военные технологии в США уже начали активно использовать искусственный интеллект для анализа данных, выбора целей и управления оружием. Однако эффективность подобных систем остается спорной. Так, в 2021 году один из программных комплексов целеуказания показал точность всего 25% вместо заявленных 90%. И все же американский Пентагон продолжает интеграцию ИИ в стратегическое планирование и принятие решений, — пишут Хайди Хлааф и Сара Майерс из американского Института Искусственного Интеллекта (ИИ).

ИИ в военной сфере США: от инновации к угрозе
К январю 2025 года несколько крупных технологических компаний США объявили о сотрудничестве с оборонной отраслью страны:
- компания OpenAI заключила партнерство с Anduril, специализирующейся на военных технологиях;
- компания Meta (запрещенная на территории РФ организация) предоставила свои ИИ-модели таким подрядчикам, как Lockheed Martin и Booz Allen;
- затем Пентагон выбрал компанию Scale AI для тестирования крупных языковых моделей в военных сценариях.
Опасности ИИ в военных системах
Так, американский генерал Марк Милли назвал военные ИИ-системы «обоюдоострым мечом», а представитель ВМС США Джейн Ратбун заявила, что массовое использование языковых моделей, — GPT-4 и Gemini, — возможно только после тщательной проверки их безопасности. Эксперты отмечают несколько рисков включения ИИ в оборонную систему США.
- Ошибочные рекомендации: крупные языковые модели склонны к «галлюцинациям» и выдаче неверной информации, что может привести к неправильному выбору целей во время боевых действий.
- Непредсказуемость поведения: даже военные специалисты США не могут полностью контролировать процессы принятия решений в ИИ-системах.
- Киберугрозы: противники могут «отравить» обучающие данные для ИИ, внедряя ошибки, которые вызовут непредсказуемые сбои в работе военных США.
При этом специалисты убеждены: в случае атаки злоумышленники могут использовать уязвимости в архитектуре ИИ США, получая доступ к конфиденциальной информации или манипулируя алгоритмами принятия решений.

Гонка вооружений в ИИ — путь к катастрофе?
Китайские разработчики уже представили ChatBIT — модель, созданную на основе технологий Meta (запрещенная на территории РФ организация). Это, естественно, усиливает опасения американских властей, которые стремятся не уступать технологическое первенство. Однако гонка за доминированием в сфере ИИ, особенно в военных разработках, может привести к серьезным последствиям.
Затем, например, запуск DeepSeek оказал ощутимое давление на акции Nvidia и индустрию ИИ из США.
Между тем администрация президента Дональда Трампа отменила указ президента Джо Байдена, направленный на усиление регулирования в области военного ИИ. По словам западных экспертов, это свидетельствует о том, что Белый дом намерен «ускорить развертывание ИИ в оборонной сфере, игнорируя потенциальные угрозы».
Вывод: почему необходимо усилить контроль
Специалисты AI Now Institute предлагают изменить подход к военным ИИ-системам:
- разработать отдельную инфраструктуру для военного ИИ, независимую от коммерческих моделей;
- минимизировать объем данных, доступных технологическим компаниям для обучения алгоритмов;
- применять строгие инженерные методы оценки надежности и безопасности ИИ;
Так, непродуманный подход к военному ИИ может поставить под угрозу не только стратегическую безопасность США, но и глобальную стабильность. Поэтому прежде чем превращать искусственный интеллект в оружие, необходимо гарантировать его предсказуемость и защищенность, — заключили Хайди Хлааф и Сара Майерс из американского Института Искусственного Интеллекта (ИИ).