Эксперт: ИИ действительно угрожает человеку, но не тем, чего все боятся
Расцвет ChatGPT и подобных систем искусственного интеллекта сопровождается резким ростом беспокойства по поводу ИИ. В течение последних месяцев руководители компаний и исследователи безопасности ИИ предлагали прогнозы, получившие название «P(doom)» — вероятность того, что ИИ приведет к крупномасштабной катастрофе.
Беспокойство достигло пика в мае 2023 года, когда некоммерческая исследовательская и пропагандистская организация Center for AI Safety опубликовала заявление, состоящее из одного предложения: «Снижение риска вымирания человечества от ИИ должно стать глобальным приоритетом наряду с другими рисками глобального масштаба, такими как пандемии и ядерная война». Заявление подписали многие ключевые игроки в этой области, включая руководителей OpenAI и Google и двух так называемых «крестных отцов» ИИ: Джеффри Хинтона и Йошуа Бенджио.
Можно спросить: каким же образом ИИ уничтожит человечество? Одним из известных сценариев является мысленный эксперимент «максимизатор скрепок», сформулированный оксфордским философом Ником Бостромом. Идея заключается в том, что система искусственного интеллекта, которой поручено произвести как можно больше скрепок, может пойти на чрезвычайные меры в поисках сырья, например, разрушить заводы и устроить автомобильные аварии.
Эксперимент со скрепками
В менее ресурсоемком варианте ИИ, которому поручено заказать столик в популярном ресторане, отключает сотовую связь и светофоры, чтобы помешать другим посетителям занять столик.
В обоих случаях идея одна и та же: ИИ быстро становится инопланетным интеллектом, который хорош в достижении целей, но опасен, поскольку не обязательно разделяет моральные ценности своих создателей. А в самом крайнем варианте этот аргумент трансформируется в явную тревогу по поводу того, что ИИ поработит или уничтожит человеческую расу.
Реальный вред
В последние несколько лет ученые из Центра прикладной этики Университета Массачусетса в Бостоне изучали влияние ИИ на понимание людьми самих себя, и пришли к выводу, что катастрофические опасения и сильно преувеличены, и неверно нацелены.
Да, способность ИИ создавать убедительные дипфейки видео и аудио пугает, и этим люди могут злоупотреблять. Но на самом деле, это происходит очень давно и задолго до ИИ. И даже до цифровой обработки фотографий. Фотографы давно умеют создать монтажные изображения практически неотличимые от реальных снимков.
Системы принятия решений на основе ИИ, предлагающие одобрение кредитов и рекомендации по приему на работу, несут в себе риск алгоритмической предвзятости, поскольку обучающие данные и модели принятия решений, на которых они работают, отражают давние социальные предрассудки.
Это большие проблемы, и они требуют внимания со стороны политиков. Но они существуют уже давно, и вряд ли их можно назвать катастрофическими.
Не в одной лиге
В заявлении Center for AI Safety ИИ ставится в один ряд с пандемиями и ядерным оружием как главный риск для цивилизации. С этим сравнением есть проблемы. Пандемия COVID-19 привела к смерти почти 7 миллионов человек по всему миру, вызвала масштабный и продолжающийся кризис психического здоровья и создала экономические проблемы, включая хронический дефицит поставок и стремительную инфляцию.
Ядерное оружие, вероятно, убило более 200 000 человек в Хиросиме и Нагасаки в 1945 году, унесло гораздо больше жизней от рака в последующие годы, породило десятилетия глубокой тревоги во время холодной войны и поставило мир на грань уничтожения во время Карибского кризиса в 1962 году.
ИИ даже не приблизился к способности нанести такой ущерб. Сценарий со скрепкой и другие подобные ему — это научная фантастика. ИИ далек от того, чтобы принять сложное решение, а затем спланировать главные и промежуточные цели, необходимые для перекрытия движения транспорта, чтобы обеспечить заказчику место в ресторане, или взорвать автомобильный завод, чтобы удовлетворить свой зуд на скрепки.
Технология не только не обладает сложной способностью к многоуровневому суждению, которая задействована в этих сценариях, она и не имеет автономного доступа к критической инфраструктуре, чтобы начать наносить такой ущерб.
Что значит быть человеком
На самом деле, использование ИИ сопряжено с экзистенциальной опасностью, но этот риск является экзистенциальным в философском, а не в апокалиптическом смысле. ИИ в его нынешней форме может изменить представление людей о самих себе. Он может ухудшить способности и опыт, которые люди считают важными для того, чтобы быть человеком.
Например, люди — существа, принимающие решения. Люди рационально взвешивают конкретные детали и ежедневно принимают решения на работе и во время отдыха. Они решают кого нанять на работу, кому дать кредит, какое кино посмотреть и так далее. Но все больше и больше этих суждений автоматизируется и передается алгоритмам. Если большинство решений будет передано алгоритмам, конец света не наступит. Но люди постепенно утратят способность самостоятельно принимать такие решения. Чем реже они будут решать, тем хуже будут их решения.
Подумайте о роли случайности в жизни людей. Люди ценят случайности: вдруг наткнуться на красивое место, встретить человека или выбрать род деятельности. Случайность часто играет решающую роль в таких находках. Но роль алгоритмических рекомендательных систем заключается в том, чтобы сократить и даже исключить случайность и заменить ее планированием и прогнозированием.
ChatGPT находится в процессе устранения роли письменных заданий в высшем образовании. Если это произойдет, преподаватели потеряют ключевой инструмент для обучения студентов критическому мышлению. И это не приведет к катастрофе, а только снизит уровень образования и глубину мышления.
«На взрыв, а всхлип»
Нет, ИИ не взорвет мир. Но некритичное его использование в различных узкоспециализированных контекстах означает постепенное ослабление некоторых важнейших навыков человека. Алгоритмы уже подрывают способность людей выносить суждения, наслаждаться случайными встречами и оттачивать критическое мышление.
Человеческий вид переживет такие потери. Но наша жизнь обеднеет. Фантастическая тревога вокруг грядущего ИИ-катаклизма, сингулярности, Скайнета, как бы вы это ни называли, скрывает эти более тонкие издержки. Вспомните знаменитые заключительные строки поэмы Т. С. Элиота «Полые люди»: «Так кончается мир, не взрывом, а всхлипом».
«Так кончается мир, не взрывом, а всхлипом»