Этика в эпоху искусственного интеллекта: с какими вызовами столкнется бизнес
Консалтинговая компания Gartner даже назвала «Усовершенствованный, ответственный, масштабируемый искусственный интеллект» главным трендом 2021 года в сфере данных и аналитики, а Комиссия Европейского союза в апреле этого года представила законопроект о развитии и регулировании искусственного интеллекта. И это лишь один из множества подобных документов: формирование законодательной базы, связанной с использованием ИИ, проходит сейчас по всему миру.
Мы действительно должны задаваться этическими вопросами. Но нельзя забывать и о том, какой неоценимый вклад способен внести искусственный интеллект в развитие организаций и общества в целом. Мы уже не задумываемся, что можно делать с ИИ-технологиями. Сейчас важно понять, как использовать искусственный интеллект эффективно, но в то же время этично и ответственно. При этом необходимо учитывать три параметра.
Ускорение
Стремительный рост объема данных, размеров хранилищ и вычислительных способностей делает возможным ускорение цифровизации. И кризис, вызванный COVID-19, стал еще одним мощным катализатором изменений. Недавнее исследование McKinsey показало, что ответом на вызовы пандемии стало многократное ускорение внедрения цифровых технологий, и это не временные меры. Дело уже не только в том, чтобы создавать условия для удаленной работы. Компании поняли, как важно полагаться на аналитику и цифровые сервисы при формировании гибкой, конкурентной стратегии, которая поможет пережить тяжелые времена.
На ускорение цифровизации также влияет «тирания мгновенности», то есть требование потребителей иметь постоянный доступ к онлайн-сервисам. Мы как дети: хотим всего и прямо сейчас. Мы ждем, что продукты, услуги, информация будут доступны онлайн и в любой момент.
Возможность автоматически принимать решения с помощью искусственного интеллекта становится важнейшим конкурентным преимуществом. Если кредит не могут одобрить мгновенно, мы просто идем в другой банк. Если нужный продукт не могут доставить сегодня, мы идем к другому ритейлеру.
Делегирование
Также необходимо задуматься о том, насколько мы доверяем машинам в принятии решений. Например, по некоторым оценкам, сейчас 85% биржевых операций осуществляется автоматически с помощью алгоритмов, без вмешательства людей. Это удобно и прибыльно для трейдеров, инвестиционных банков и хеджевых фондов. Однако нам точно известно, что в случае краха фондовой биржи такой подход способен усугубить его последствия. А между тем, на кону финансовое положение и даже жизни людей. В связи с этим возникает вопрос о том, насколько действия алгоритмов поддаются регулированию и интерпретации.
Возможно, пример с биржевыми торгами – это крайность. Но мы ожидаем, что компьютеры будут принимать за нас целый спектр решений, в том числе:
- какую информацию мы получаем в ответ на поисковый запрос;
- как добраться из пункта А в пункт Б;
- как управлять светофорами, самолетами, ядерными реакторами;
- как защитить банковские счета от посягательств мошенников.
Кажется, мы слепо верим в способность алгоритмов принимать верные решения. И с некоторыми задачами искусственный интеллект действительно справляется лучше людей, например с обработкой огромных массивов информации для выявления закономерностей и построения прогнозов. Но алгоритмам не хватает понимания культуры, контекста, да и просто здравого смысла. Они обучаются лишь на основе тех данных, которые мы им предоставляем. Может, они эффективно работают, но узко мыслят. Это может привести к тому, что искусственный интеллект будет принимать решать или делать прогнозы, которые технически верны, но социально неприемлемы.
Масштаб
Как известно, иногда искусственный интеллект делает неудачные прогнозы, которые ведут к принятию неверных решений, и все это отзывается ощутимыми последствиями в реальном мире. И одно дело, когда ошибается человек. Но алгоритмы принимают более масштабные решения – часто их охват в миллионы раз больше, и происходит это в режиме реального времени. Поэтому последствия куда более ощутимы, и сталкиваться с ними приходится намного раньше.
Можно сказать, что искусственный интеллект работает как усилитель или эхо-камера. Поэтому человеческие предубеждения – осознанные и бессознательные – и существующая дискриминация способны многократно усиливаться из-за действий алгоритмов.
Мы слишком остро реагируем?
Все эти опасения абсолютно справедливы, но из-за того, что из СМИ на нас обрушивается ошеломляющий поток новостей об ошибках алгоритмов, может сложиться впечатление, что все страшнее, чем есть на самом деле. Ни дня не проходит без сообщений о каком-нибудь страшном ИИ-провале на первой полосе. Истории о роботах-убийцах подпитывают страхи общественности и бизнес-лидеров.
В определенной степени это объяснимо. Широкая общественность и регуляторы наконец начали обращать внимание на технологические инновации, которые какое-то время оставались незамеченными. И некоторые люди решили взять вопрос в свои руки. Создаются бесчисленные инициативы и общественные группы, призванные разобраться с проблемой, повысить осознанность и сподвигнуть регуляторов разработать стандарты использования искусственного интеллекта.
Односторонний взгляд
В 2020 году вышел документальный фильм «Программные стереотипы». В нем освещались такие проблемы, как дискриминация и отсутствие прозрачности при использовании искусственного интеллекта в определенных ситуациях, например при распознавании лиц. Фильм позволяет по-новому взглянуть на этические проблемы, связанные с применением ИИ-алгоритмов, но совершенно игнорирует тот факт, что искусственный интеллект также полезен для общества.
К примеру, ИИ-решения:
- помогают защитить леса Амазонии;
- помогают сохранить вымирающие виды;
- предоставляют врачам инсайты, которые позволяют быстрее поставить верный диагноз;
- используются в решении таких вопросов, как жестокое обращение с детьми, бездомность и проблемы с ментальным здоровьем.
Проблема в том, что широкое освещение неудачных кейсов затмевает все хорошее. Например, в 2016 году много шума наделала новость о чат-боте от Microsoft под названием Tay, запущенном в Twitter. Всего за 16 часов программа прошла путь от сообщения «Люди такие крутые» до расистских, сексистских и прочих оскорбительных комментариев.
Но важно учитывать, что Tay учился у других пользователей Twitter, которые с ним взаимодействовали. А они с радостью делились с чат-ботом не самыми приятными мыслями. Суть проблемы идеально описал сам Tay, который в ответ на сообщение «Ты просто глупая машина» написал: «Что ж, я учусь у лучших. Если вы еще не поняли, объясняю доступно: я учусь у вас, и вы сами дураки».
Это довольно забавный пример того, что может пойти не так при использовании искусственного интеллекта, но он также показывает дата-аналитикам, как важно следить за тем, какие данные используются для обучения алгоритмов, и обсуждать вопрос ответственности за решения, принятые искусственным интеллектом.
Барьер для инноваций?
Освещение подобных историй помогает поддерживать разговор об этической стороне применения искусственного интеллекта, но в то же время порождает страх и даже тормозит внедрение ИИ-технологий. По данным недавнего исследования Delloite, 95% опрошенных управляющих обеспокоены этическими рисками внедрения искусственного интеллекта. Они также переживают, что ИИ-решения могут повредить репутации бренда и подорвать доверие клиентов, партнеров и сотрудников. Для 56% респондентов страх настолько велик, что тормозит внедрение технологий.
И все же искусственный интеллект – ключ к ускорению цифровой трансформации и формированию конкурентного преимущества. Это гонка, успех в которой зависит от силы и скорости. А значит, этические вопросы стоят далеко не на первом месте и часто рассматриваются исключительно как проблема, навязанная регуляторами.
Обязательства бизнеса
Пора найти баланс между двумя противоборствующими на первый взгляд мирами: этикой и инновациями с прибылью. На самом деле, ответственное использование искусственного интеллекта идет бизнесу только на пользу, помогая строить доверительные отношения. Кроме того, внедрение ИИ-решений начинает становиться необходимостью, ключевым фактором успеха цифровой трансформации.
Компании задумываются об ответственном использовании искусственного интеллекта по нескольким причинам. В большинстве случаев речь идет прежде всего о формировании у сотрудников доверия по отношению таким решениям. Без этого невозможно добиться желаемой эффективности.
Впереди конкурентов
Организации также обращаются к ответственному использованию ИИ-решений, чтобы выигрышно выделяться на фоне конкурентов. Примерно так же производители кофе рассказывают о своих практиках этичной торговли. Это своего рода маркетинговая отметка, которые представляет бренд в позитивном свете. Поскольку потребители в основном рады делать что-то, по их мнению, правильное, они больше склонны доверять компаниям, которые демонстрируют свою приверженность этическим принципам и корпоративную ответственность.
Необходимость снижения рисков – также важный довод в пользу ответственного использования искусственного интеллекта. Здесь речь идет, например, о репутационных рисках в случае, если станет известно о том, что применение ИИ-решений привело к дискриминации. Также существуют риски, что потребители могут разозлиться из-за того, как используются их данные, из-за отказа в предоставлении кредита или из-за процентной ставки, назначенной на основании их геолокации или используемого ими устройства.
Наконец, это вопрос соответствия – соответствия требованиям стейкхолдеров, для которых важна этичность ведения бизнеса, и соответствия существующим и будущим предписаниям регуляторов. Если компании не хотят выплачивать штрафы, им лучше задуматься об этом уже сейчас.
Что в итоге?
Бизнес-лидеры больше не могут игнорировать этические риски, связанные с внедрением ИИ-решений. Но снижение этих рисков не должно быть преградой на пути инноваций. Если выбрать грамотный подход, цифровизация способна оказать огромное влияние на устойчивость и конкурентные преимущества бизнеса.
Оливье Пенель, консультант по бизнес-решениям, рассказывает о том, какие этические вопросы ставит перед обществом использование искусственного интеллекта и почему их нужно решать, а не бояться.