Как внедрение ИИ угрожает безопасности США? Вот что говорят американские эксперты

Быстрое внедрение искусственного интеллекта в военную сферу какой бы то ни было страны несет серьезные риски для национальной безопасности. Так, ошибки ИИ-систем, уязвимости в кибербезопасности и отсутствие надежных механизмов контроля могут привести к катастрофическим последствиям, например, для США, — пишут в западных СМИ. Несмотря на предупреждения экспертов, администрация президента Дональда Трампа активно поддерживает интеграцию ИИ в оборонную отрасль.
Как внедрение ИИ угрожает безопасности США? Вот что говорят американские эксперты
Unsplash

Современные военные технологии в США уже начали активно использовать искусственный интеллект для анализа данных, выбора целей и управления оружием. Однако эффективность подобных систем остается спорной. Так, в 2021 году один из программных комплексов целеуказания показал точность всего 25% вместо заявленных 90%. И все же американский Пентагон продолжает интеграцию ИИ в стратегическое планирование и принятие решений, — пишут Хайди Хлааф и Сара Майерс из американского Института Искусственного Интеллекта (ИИ).

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

ИИ в военной сфере США: от инновации к угрозе

К январю 2025 года несколько крупных технологических компаний США объявили о сотрудничестве с оборонной отраслью страны:

  1. компания OpenAI заключила партнерство с Anduril, специализирующейся на военных технологиях;
  2. компания Meta (запрещенная на территории РФ организация) предоставила свои ИИ-модели таким подрядчикам, как Lockheed Martin и Booz Allen;
  3. затем Пентагон выбрал компанию Scale AI для тестирования крупных языковых моделей в военных сценариях.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Опасности ИИ в военных системах

Так, американский генерал Марк Милли назвал военные ИИ-системы «обоюдоострым мечом», а представитель ВМС США Джейн Ратбун заявила, что массовое использование языковых моделей, — GPT-4 и Gemini, — возможно только после тщательной проверки их безопасности. Эксперты отмечают несколько рисков включения ИИ в оборонную систему США.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
  1. Ошибочные рекомендации: крупные языковые модели склонны к «галлюцинациям» и выдаче неверной информации, что может привести к неправильному выбору целей во время боевых действий.
  2. Непредсказуемость поведения: даже военные специалисты США не могут полностью контролировать процессы принятия решений в ИИ-системах.
  3. Киберугрозы: противники могут «отравить» обучающие данные для ИИ, внедряя ошибки, которые вызовут непредсказуемые сбои в работе военных США.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

При этом специалисты убеждены: в случае атаки злоумышленники могут использовать уязвимости в архитектуре ИИ США, получая доступ к конфиденциальной информации или манипулируя алгоритмами принятия решений.

Unsplash

Гонка вооружений в ИИ — путь к катастрофе?

Китайские разработчики уже представили ChatBIT — модель, созданную на основе технологий Meta (запрещенная на территории РФ организация). Это, естественно, усиливает опасения американских властей, которые стремятся не уступать технологическое первенство. Однако гонка за доминированием в сфере ИИ, особенно в военных разработках, может привести к серьезным последствиям.

  • Затем, например, запуск DeepSeek оказал ощутимое давление на акции Nvidia и индустрию ИИ из США. 

Между тем администрация президента Дональда Трампа отменила указ президента Джо Байдена, направленный на усиление регулирования в области военного ИИ. По словам западных экспертов, это свидетельствует о том, что Белый дом намерен «ускорить развертывание ИИ в оборонной сфере, игнорируя потенциальные угрозы».

Вывод: почему необходимо усилить контроль

Специалисты AI Now Institute предлагают изменить подход к военным ИИ-системам:

  1. разработать отдельную инфраструктуру для военного ИИ, независимую от коммерческих моделей;
  2. минимизировать объем данных, доступных технологическим компаниям для обучения алгоритмов;
  3. применять строгие инженерные методы оценки надежности и безопасности ИИ;

Так, непродуманный подход к военному ИИ может поставить под угрозу не только стратегическую безопасность США, но и глобальную стабильность. Поэтому прежде чем превращать искусственный интеллект в оружие, необходимо гарантировать его предсказуемость и защищенность, — заключили Хайди Хлааф и Сара Майерс из американского Института Искусственного Интеллекта (ИИ).