Google сможет использовать ИИ для разработки оружия и систем слежки

Технологическая компания Google Alphabet обновила свод этических принципов по работе с нейросетями. На сайте пропал раздел о запрете применения ИИ-технологий в направлениях, «которые могут нанести общий вред». Рассказываем, почему «корпорация добра» изменила свою политику.
Полина Виноградова
Полина Виноградова
Редакция
Google сможет использовать ИИ для разработки оружия и систем слежки
Wiki Commons
Alphabet Inc. — материнская компания Google. Ее создали в 2015 году, чтобы разделить основные интернет-бизнесы (Google) и другие инновационные проекты: Waymo (беспилотное такси), Verily (медицинские исследования), DeepMind (разработка ИИ).

Красные линии: когда Google ограничил применение ИИ

Первые принципы работы с нейросетями появились в 2018 году. Их разработка во многом связана с протестами внутри компании. Дело в том, что Google участвовал в проекте Министерства обороны США (Project Maven), который использовал искусственный интеллект для анализа видеозаписей с беспилотников. В ответ на это три тысячи сотрудников подписали письмо с требованием прекратить сотрудничество Google с Пентагоном.

«Мы считаем, что Google не должен заниматься военным бизнесом»
Отрывок из обращения сотрудников к генеральному директору компании Сундару Пичаи

Тогда компания установила строгие рамки — ограничила использование ИИ-технологий в разработке оружия, систем слежки и в других сферах, противоречащих нормам международного права.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Камеры наблюдения
Unsplash

Почему Google развязал себе руки

В начале февраля компания удалила раздел об этических ограничениях. Вместо четких тезисов на сайте осталась общая информация о том, что Google занимается разработкой моделей, «в которых вероятные общие выгоды существенно превышают предсказуемые риски».

В отчете за 2024 год Джеймс Маника (старший вице-президент Google) и Демис Хасабис (генеральный директор Google DeepMind) подчеркнули, что изменение политики связано с растущей конкуренцией в сфере разработки нейросетей.

«Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность»
Джеймс Маника (старший вице-президент Google) и Демис Хасабис (генеральный директор Google DeepMind)

Теперь технологический гигант планирует развивать искусственный интеллект для решения глобальных проблем. Не вдаваясь в детали, представители Google уверяют, что использование ИИ «будет соответствовать общепринятым принципам международного права и прав человека».