Бот расист, хам и сексист: чего еще ждать от искусственного интеллекта
Скоро у каждого из нас будет по 5-10 ботов
По последним исследованиям, 80% компаний хотели бы автоматизировать свои коммуникации. Поэтому, какая бы задача ни стояла – от развития компетенций персонала до поиска идей для тимбилдинга – чаще всего в компаниях задумываются над вопросом, как можно автоматизировать и упростить процесс. И часто находят для себя полезным искусственный интеллект.
Сегодня использование ботов уже никого не удивляет. Регистрируясь на семинар или заказывая корпоративное мероприятие, в большинстве случаев вы общаетесь сначала с ботом, и только потом уже с человеком. Занимаясь обучением персонала, вы, скорее всего, встречались с ботами: использовали их для организации сессий и консультаций. Это и чат-боты, которые общаются письменно, и голосовые ассистенты, готовые ответить на все вопросы.
Эксперты считают, что до 2025 года каждый из нас обзаведется десятком разных ботов-помощников, призванных улучшать различные сферы нашей жизни. К этому времени они будут привычными, более рентабельными и простыми в применении.
Коммуникации в бизнесе играют все большую роль, при этом клиенты привыкают к обслуживанию в режиме 24/7. Если учесть стремление каждого владельца бизнеса к оптимизации затрат – все сводится к тому, что в своей работе нужно использовать электронных помощников. Иначе с конкуренцией справиться будет крайне трудно.
Как мы будем просыпаться через 20 лет?
Google и Microsoft озвучили свои прогнозы о том, как будет выглядеть утро обычного человека через 20 лет. Это будет мир, в котором нашим расписанием на день займутся личные цифровые ассистенты. Они будут готовить расписание, пока мы спим, а во время утреннего завтрака – сообщать нам о том, как следует провести день, какой будет погода, какие важные события произошли в мире.
Искусственный интеллект будет заботливым и деликатным, с каждым днем помогая нам становиться лучшей версией себя. Он возьмет на себя повседневную рутину, которая еще совсем недавно занимала наше время и съедала энергию. Вы сможете сосредоточиться на творческих и важных вещах, а также заняться тем, что нравится.
Специалист по разработке чат-ботов Google Уолли Брилл констатирует: «Людям хочется, чтобы чат-боты были больше похожими на них».
Помните фильм «Она»? Голосовой ассистент Саманта – ориентир для разработчиков ботов, однако текущим версиям еще до подобного уровня далеко. А значит, есть над чем работать. Как знать, возможно, через какое-то время корпоративные тренинги будут проводить боты, или, может, тренинги будут проводиться для ботов?
Разработчики ассистентов видят задачу вполне реальной, к тому же задумываются, как создать помощников, которые не только освободят руки человеку, но и смогут стать для него полноценными собеседниками – с обаянием и чувством юмора. А еще подходящим для своего «хозяина» уровнем интеллекта: роботы для HIPO, подростков или роботы, помогающие человеку управлять карьерой. Важная тенденция, которую хотелось бы отметить, анализируя тренды в разработке виртуальных ассистентов, – это стремление не избавиться от человека, а помочь ему получить больше комфорта.
Мы хотим сотрудничать
Разработчики виртуальных ассистентов придерживаются принципа сотрудничества: хотят, чтобы разговоры с ассистентами были открытыми, честными, информативными и понятными. Для того, чтобы общение было конструктивным, разработчики уделяют большое значение тому, когда наступает очередь говорить помощнику, а когда нам. Коммуникации должны соответствовать ситуации, поэтому контексту также уделяется большое значение.
В своей книге «Wired For Speech» исследователи из Стэнфорда Клиффорд Насс и Скотт Брэйв сообщают, что пользователи в определенной степени относятся к голосовым интерфейсам так, как к другим людям. Сначала люди научились говорить, и только потом писать. Поэтому, когда человек слышит голос, он относится к нему как к голосу какой-нибудь личности. Это происходит неосознанно.
Человеку свойственно создавать образ, слушая голос: возраст, пол и характер определяют намерения «говорящего». Виртуального ассистента люди называют «она» или «он», когда рассказывают кому-то об опыте общения с ботом.
Чат-боты созданы для решения определенных задач. По статистике, 54% людей предпочтут решать свои конкретные задачи с роботом, а не с человеком. Они считают, что это сэкономит их время. Однако после того, как общение с машиной уже состоялось, 6 из 10 остаются недовольны механичностью процесса.
Человек хочет, чтобы бот был похож на него
Человеку важно ощущение того, что чат-бот подобен ему. Такие выводы сделал Ульрих Гневух, исследователь Технологического института Карлсруэ в Германии. Он несколько последних лет изучал опыт взаимодействия людей и виртуальных помощников.
Чтобы цифровые помощники воспринимались «своими», необходимо интегрировать в их речь антропоморфные (человекоподобные) сигналы. Нервная система выделяет в речи речевые сигналы и кодирует их, «различая» таким образом в них те или иные эмоции. Если таких сигналов нет, человек не воспринимает робота как своего помощника. Здесь можно задуматься: чего не хватает боту, чтобы быть «человеком»?
Кроме того, мы хотим, чтобы нам помогал человек компетентный. Первое, что выясняется при изучении этого вопроса – слишком быстрые ответы. Человек чаще всего сначала задумается, прежде чем ответить. Исследования показали, что в данном случае быстрее – не значит лучше. Если чат-боты начнут отвечать не молниеносно, человеку будет комфортнее с ними общаться. Важно обеспечить пользователя ощущением реальности диалога.
Примеры неудач с чат-ботами
Неудачи случаются с чем угодно, в том числе и с чат-ботами. Рассмотрим самые яркие провалы. О них на саммите рассказал профессор по кибер-исследованиям Тель-Авивского университета Нимрод Козловский.
Стандарта по разработке чат-ботов до сих пор нет, индустрия довольно фрагментирована, поэтому каждая разработка – ноу-хау компании-разработчика. Рано или поздно начнется разговор об этике и законе, но пока что эта сфера мало регулируется. Время от времени возникают казусные случаи, показывающие на что способны боты, общаясь с живыми людьми.
Бот, который расстроил Тэйлор Свифт
В 2016 году в Microsoft появился виртуальный подросток Тэй, который позиционировался как «свой парень». Он отлично учился у каждого, с кем общался (прямо как в фильме «НЕ идеальный мужчина»). Иногда Тэй выбирал не лучшие образы для подражания: грешил подстрекательством, проявлениями геноцида и расизма. Просуществовал этот бот недолго – всего 16 часов. Но слава о нем разошлась быстро. Тэйлор Свифт собралась даже подать на Microsoft в суд за то, что компания назвала неприятного бота ее именем.
Дальше слов дело не пошло, но это яркий пример: по мере персонализации бота к нему начинают относиться как к человеку, и поведение простого чат-бота может иметь непростые юридические последствия.
Бот-сексист
В Amazon решили автоматизировать подбор персонала. В 2014 году было создано программное обеспечение для анализа резюме. Целью автоматизации стал поиск топ-талантов.
Со временем в компании поняли, что при автоматическом отборе на технические должности женщины отсеивались. Это стало ясно только через год. Оказалось, система, анализируя резюме за последние 10 лет, «запомнила», что большинство заявок поступало именно от мужчин, и сделала вывод, что мужчины для компании предпочтительнее. Кроме этого недостатка был обнаружен и ряд других, так что проект был закрыт.
Боты «легкого поведения»
Есть еще история о группе ботов, которые зарабатывали флиртом. В 2002 году в Канаде была создана социальная сеть для семейных людей Ashley Madison под слоганом: «Жизнь коротка. Заведите роман».
В 2015 году группа хакеров взломала сервис и выложила в сеть данные 37 миллионов пользователей сети, истории их поиска и транзакции по кредитным картам. Тогда же всплыла интересная деталь. Во-первых, была опровергнута статистика соцсети о том, что якобы мужчин и женщин, желающих завести роман «на стороне», поровну. Оказалось, что это не так. В сети действительно мужских и женских аккаунтов было поровну, однако в качестве женских большинство были ботами. Мужчин в соцсети оказалось не менее 70%. Во-вторых, система зарабатывала на мужчинах. Сервис работал по продуманной схеме: женщины-боты вели себя фривольно и «раскручивали» мужчин на плату за доступ, а те, в свою очередь, ни о чем не подозревая делились с ботами своими фантазиями.
Эта история подтверждает, что боты могут быть очень похожими на людей. Важно, чтобы пользователям было так же комфортно с чат-ботами, как с другими людьми, но человек хотел бы понимать, с кем общается. Это уже вопрос этики.
Материал подготовлен совместно с компанией ManGO! Games