Как получить максимум пользы от ИИ и свести к минимуму риски. Саммит в Блетчли-парк
Вопрос о том, как получить максимальную пользу от искусственного интеллекта (ИИ) и при этом свести к минимуму его вред, волнует весь мир. В ноябре 2023 года в центре внимания находится Великобритания, где премьер-министр Риши Сунак проводит международный саммит по безопасности ИИ, в котором принимают участие влиятельные представители промышленности, политики и научных кругов. Встреча проходит к северу от Лондона в Блетчли-парке (The 2023 Artificial Intelligence Safety Summit).
Выступая в Королевском обществе в Лондоне, Сунак сказал: «Сейчас единственными людьми, проверяющими безопасность ИИ, являются те самые люди, которые его разрабатывают». Он мог бы добавить, что исследователи за пределами этих корпораций, желающие изучить безопасность ИИ, не могут этого сделать из-за отсутствия доступа к данным компаний.
В указе президента США Джо Байдена о безопасности ИИ говорится, что разработчики «самых мощных систем ИИ» должны уведомлять правительство и делиться данными о безопасности. Кроме того, стандарты безопасности будут устанавливаться Национальным институтом стандартов и технологий США.
Сунак заявил, что Великобритания не спешит с регулированием. «Это принципиальный момент — мы верим в инновации», — сказал он. Но инновации и регулирование не должны противопоставляться друг другу. Мир нуждается и в том, и в другом.
Сегодня уже существует множество законом и правил, которые регулируют очень многие области — от банковского дела до лекарств, от продуктов питания до безопасности дорожного движения. Из можно использовать и для регулирования ИИ. Например, исследователи из лондонской компании Google DeepMind предложили использовать опыт Международного агентства по атомной энергии (МЭГАТЭ). Опираясь на этот опыт, DeepMind высказала свои предложения по регулированию, которые можно применить к ИИ.
Мировой опыт регулирования
Все технологии отличаются друг от друга, но за десятилетия регулирования самых разных областей сформировались некоторые фундаментальные принципы. Один из них — необходимость прозрачности и доступа регулирующих органов к полным данным, позволяющим им принимать правильные решения. Другой принцип — необходимость в юридически обязательных стандартах контроля и ответственности.
Мировой финансовый кризис 2008 года показывает, что может произойти, если регулирующие органы не обращают достаточного внимания на соответствующие данные. Регуляторы не знали или не смогли обнаружить, что банки и страховые компании вложили сотни миллиардов долларов кредитов в непрозрачные финансовые продукты, которые в конечном итоге зависели от рискованного кредитования, — пока не стало слишком поздно. Но были и те, кто понимал, как создавались эти продукты и каковы были их системные риски.
Другими основными элементами регулирования являются регистрация, регулярный мониторинг, информирование об инцидентах, которые могут причинить вред, и непрерывное обучение как пользователей, так и регулирующих органов. Здесь можно извлечь уроки из безопасности дорожного движения.
Автомобиль изменил жизнь миллиардов людей, но при этом он причиняет вред и несет серьезную опасность. Для снижения рисков производители автомобилей должны соблюдать стандарты безопасности продукции; автомобили должны регулярно проходить тесты и проверки; существует обязательная подготовка и лицензирование водителей, а также страховая правовая база для оценки и распределения ответственности в случае ДТП. Регулирование может даже стимулировать инновации. Так, введение норм токсичности выхлопных газов стимулировало разработку более экологически чистых автомобилей.
Крайне важно, что вопрос безопасности ИИ не может быть уделом только тех, кто работает в области вычислительных дисциплин. Исследователи, изучающие этику, равенство и многообразие (ethics, equality and diversity) в науке, общественное взаимодействие и технологическую политику, должны принять в этом участие. Ученые-социологи из этих областей должны были быть в центре внимания на саммите. Вместо этого многие из них собираются вместе с учеными-компьютерщиками на отдельную серию мероприятий под названием AI Fringe в Лондоне.
На сегодняшнем этапе развития ИИ все, похоже, опираются на свои любимые исторические аналогии. Сунак говорил о необходимости создания органа в стиле Межправительственной группы экспертов по изменению климата, которая была создана в 1988 году. Другие упоминали Асиломарскую конференцию, на которой в 1975 г. в Калифорнии собрались исследователи, чтобы предупредить о необходимости контроля биобезопасности при модификации ДНК. Хотя эти примеры и полезны, но их значение для решения проблемы ИИ ограничено. Нужно помнить, что ни корпорации, ни их научные сотрудники не были главными участниками конференций по климату или модификации ДНК в той мере, в какой они являются таковыми в области ИИ. ИИ уже приносит прибыли и, вероятно, принесет еще большие, а это все меняет.
Правительствам и корпорациям не следует бояться регулирования, пишет Nature. Оно позволяет развивать технологии и защищает людей. При этом оно не должно идти в ущерб инновациям. Более того, установление жестких границ может стимулировать более безопасные инновации в их пределах.