Можно ли доверять роботам: зависимость от машин

Чего стоит бояться человечеству – возможного восстания роботов или неудобства жизни без них.
Можно ли доверять роботам: зависимость от машин

В просторном кампусе Массачусетского технологического института, точнее в его лаборатории Media Lab, отведенной под исследовательские работы Personal Robots Group, всюду спотыкаешься о спутанные провода, под ногами то ли обломки разломанных игрушек, то ли детали, оставшиеся после вскрытия роботов. И среди всего этого беспорядка вдруг просыпается трехколесный робот, который начинает внимательно оглядывать комнату. Сначала фокусируются глаза, вслед за ними поворачивается белое, пухлощекое кукольное личико. Вот оно остановилось, и громадные глазищи внимательно вглядываются в фигуру очередного посетителя. Теперь Nexi (Некси) поворачивается и глядит мне прямо в лицо. Он моргает, и я рефлекторно отвечаю на этот взгляд, как бы спрашивая глазами: «Чего ты хочешь?» Этот взгляд не оставляет никакого шанса на бесстрастную журналистскую позицию, которой я намеревался придерживаться.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Сейчас он просто изучает обстановку, — говорит сотрудник лаборатории Мэтт Берлин. — Он увидел новое лицо- и он доволен». В других робототехнических лабораториях роботам ставят конкретные задачи — пройти, не упав, через всю комнату, найти мячик, да еще слегка пнуть его в нужную сторону. Таланты нашего Некси формализовать сложнее. Это социальный робот, и его единственное предназначение — взаимодействие с людьми.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Некси бесспорно может считаться высшим достижением в сфере взаимодействия робота с человеком (human-robot interaction, HRI) — однако его слава устойчиво связана с чувством страха. Еще до посещения Media Lab я видел ролики на YouTube, где Некси въезжает в поле зрения, неуклюже поворачивается лицом к камере и говорит приветственные слова приятным женским голосом. У робота большие выразительные глаза, изящное инфантильное личико, и тем не менее все в нем выглядит как-то не так. То ли это одержимая бесами кукла, пытающаяся имитировать жестикуляцию трехлетнего ребенка, то ли нечто еще более пугающее — робот, наделенный подлинными эмоциями и в равной степени способный и к любви, и к презрению. Многие отмечают, что у них мурашки бегут по телу при виде этого существа.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сейчас, ответив взглядом на взгляд Некси, я на какой-то момент почувствовал себя его убежденным сторонником. Мне захотелось убедить всех противников и сомневающихся, что у идеи HRI сияющее будущее. Разве вы сможете устоять, если вам подаст лекарство в постель вот такой разговорчивый, подмигивающий робот, живущий у вас в доме на правах медсестры или горничной? Да и детям наверняка понравится такая нянька, даже если она не всегда сумеет их успокоить, а иной раз и вообще будет впадать в оцепенение где-нибудь в углу из-за сбоев в программе или севшего аккумулятора. Нынешняя безликая механическая прислуга типа пылесоса Roomba может легко превратиться в нашего завтрашнего приятеля — активного, автономного и веселого. Для этого нужно всего лишь последовать примеру Некси и заглянуть внутрь безграничного, а иной раз и неуправляемого человеческого подсознания.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Вот для чего Некси робко поводит своими маленькими металлическими ручками, оглядывает окружающий мир в поисках человеческих лиц и старается смотреть вам в глаза. Некси моргает с еле слышным жужжанием сервомоторчика, и я невольно улыбаюсь ему в ответ. Я отвечаю на его ужимки так, как одно живое социальное существо отвечает на жесты другого. Некси еще и слова не сказал, а мне уже хочется с ним подружиться.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Даже если вы знаете о том, что ваш мозг просто-напросто атакован изощренной программой этого робота, вам отнюдь не становится легче сопротивляться его обаянию. Может быть, здесь и кроется самая главная опасность, которую представляют социальные роботы: оказавшись лицом к лицу с настоящими роботами, люди могут подпасть под их обаяние. А здесь, как и в подлинных человеческих отношениях, всякая привязанность может оказаться отягчена самыми разнообразными горестями. Возьмем, к примеру, какую-нибудь бабушку, любимой электронной компаньонке которой требуется ремонт. Что будет, если этот робот вернется домой «совсем другим человеком»?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Так может быть, страх перед подобным существом возникает не на пустом месте? Может быть, мы просто боимся не того, чего в самом деле стоит бояться?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Никаких роботов еще не было на свете, а страх перед ними уже был. В 1920 году чешский писатель Карел Чапек написал пьесу R.U.R. (Rossumovi Univerz З ln Т Roboti, «Россумские универсальные роботы»). Именно он пустил в оборот само слово «робот», а вместе с ним и апокалиптические страхи, тянущиеся за этим понятием. Уже в первом акте пьесы неодушевленные существа, выпускаемые серийно в качестве дешевой рабочей силы, недвусмысленно заявляют о своих интересах: «Роботы всего мира! Мы, первая организация россумских универсальных роботов, провозглашаем человека врагом естества и объявляем его вне закона! Роботы всего мира, приказываем вам истребить человечество. Не щадите мужчин. Не щадите женщин».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

На самом-то деле образ антропоморфного механизма, наделенного недоброй волей, уходит корнями намного глубже (см. врезку), но именно бездушные чудовища Чапека заполнили страницы бульварной фантастики 1940-х и 1950-х годов — задолго до того, как начались сколько-нибудь серьезные работы в области робототехники. Кстати, и само понятие «робототехника» (robotics) тоже вышло из-под пера фантаста — Айзека Азимова, который в своей книге «Я, робот» (в русском переводе выходила под названием «Три закона роботехники») попробовал сформулировать «моральный кодекс» специально для роботов и проиллюстрировал его короткими рассказами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Позднее появился и Т-800 в исполнении Арнольда Шварценеггера. «Терминатор» перерос в символ: в этом фильме нашли свое отражение все наши предрассудки касательно роботов, искусственного интеллекта и даже нынешних успехов в области беспилотной военной техники. В Отделе военно-морских исследований ВМФ США обсуждался, в частности, такой вопрос — нужно ли в программы боевых роботов закладывать какие-либо этические принципы? В черновике доклада, увидевшем свет в 2008 году, самый мрачный вариант финала, где машины ополчаются против нас, ничтожных представителей человечества, назван «Терминатор».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

С другой стороны, Патрик Лин, член совета по этике в Академии ВМФ США, считает, что этические основы необходимы роботам не только на поле боя. «Вполне возможно, социальные роботы представляют для обычного человека бóльшую опасность, чем роботы боевые, — говорит он.- У таких роботов не будет оружия, но уже очень скоро мы будем регулярно сталкиваться с ними лицом к лицу». Действительно, за роботами могут стоять такие реальные угрозы, в которых нет ничего общего со сценарием «Терминатора». Ведь все-таки пока что роботов можно считать абсолютнейшими идиотами по сравнению даже с самыми что ни на есть тупыми вооруженными террористами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Посмотрим хотя бы на Некси. Он ведь считается одним из самых продвинутых социальных роботов в мире. И что же? Ему понятны лишь самые примитивные речевые команды. На момент нашей встречи он не мог делать и этого — в его мозг загружали программы, разработанные для другого робота MIT, — лопоухого и пушистого Леонардо (последний сейчас «на пенсии» — у него изношены подшипники). Леонардо многому научился у людей: как складывать головоломки или как различать фигурки зверей — домашних от диких. «Где-нибудь через год Некси догонит Леонардо по возможностям, и вы вполне сможете беседовать с ним на равных, — говорит сотрудник MIT Берлин. — Наверное, это будет очень нудное занятие, если говорить с ним по душам, но оно сразу станет очень интересным, если, скажем, вам нужно будет выбраться из горящего дома».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Основатель техасской компании Hanson Robotics Дэвид Хансон уже к концу года планирует познакомить Некси с отличным собеседником по имени Зено (Zeno). Этот гуманоид ростом чуть больше полуметра и ценой $2500 безусловно стоит своих денег, причем главное в нем не моторчики с микросхемами, а умные программы, вставленные в мультяшечную голову. «Его программное обеспечение позволяет выявить присутствие в комнате нескольких человек, — говорит Хансон. — Робот самостоятельно строит в своем уме определенные представления о том, кто вы есть, что вам нравится и что вы сказали. Мы вплотную приближаемся к порогу, за которым наши роботы смогут вести свободную беседу на произвольные темы». В 2011 или 2012 году Хансон собирается выставить на рынок массовую модель с такими же возможностями распознания лиц и понимания речи, но стоимостью всего $250. При этом он хотел бы убить сразу двух зайцев — получить удобную экспериментальную платформу для дальнейших исследований и наладить выпуск игрушечного робота с такой программной начинкой, которая не надоест владельцу за первые же 15 минут.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Зено и Некси изумляют своими навыками общения, фантастической имитацией эмоционального контакта, но все же они остаются существами, действующими на уровне инстинкта и не способными к самоанализу. Определенные ключевые слова запускают в них строго расписанные стереотипы ответа... но вот вы вышли из комнаты, и им уже не дано понять, куда вы делись, как вы отнеслись к только что закончившейся беседе, и уж тем более они не размышляют, как скинуть ваше правительство.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Впрочем, многие исследователи предсказывают быстрое развитие «цифровой неврологии», которое неизбежно должно привести к созданию мощного искусственного интеллекта. Он уже будет не просто дописывать ваши фразы в поисковом окошке Google, а сможет всерьез имитировать ход вашей мысли. Сейчас компания IBM ведет работы по проекту Blue Brain, и ее обещания к 2019 году создать настоящий виртуальный мозг льют воду на мельницу пророчествующих пессимистов. И все равно, пока не будет создана неврологическая схема, описывающая, как в нашем мозгу рассчитываются результаты наших действий и формируется ответственность, нет никаких оснований говорить о технологических прорывах, угрожающих созданием настоящих электронных злодеев, рвущихся к власти.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В обозримом будущем у нас нет оснований ждать мятежа. Вернемся к этому вопросу лет через сто, а пока оставим его фантастам. Ведь, как и все другие связанные с роботами страхи, эта фобия опасна тем, что загораживает от нас более насущные проблемы. К примеру, перед нами пациент, страдающий аутизмом. Он нападает на робота-сиделку и пытается его сломать. И как при этом должен вести себя сам робот? Просто выключиться? Но ведь это весьма дорогой аппарат. Так может, ему лучше защищаться? Если такие роботы будут действовать повсюду, мы будем регулярно сталкиваться со случаями, когда они станут причиной сопутствующего ущерба — как физического, так и морального. Готовы ли мы к этому?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Когда мы видим автономного робота, который по своей собственной воле движется перед нами, жестикулирует, издает звуки, в нашем мозгу возбуждаются так называемые зеркальные нейроны. Эти нейроны возбуждаются как при выполнении определенного действия, так и при наблюдении за выполнением этого действия другим существом. Ученые полагают, что они отвечают за обучение посредством подражания. Зеркальные нейроны не будут реагировать при виде восковой фигуры или машинки с дистанционным управлением, но будут возбуждаться именно как реакция на выполнение каких-либо действий автономного робота, поскольку наш мозг по какому-то недоразумению воспримет его как живое существо.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Вспомним еще один, более известный пример таинственной реакции нашего мозга на лицезрение роботов. Его принято называть «зловещей долиной». Этот термин ввел в обращение ученый Масахиро Мори. В своей статье 1970 года, описывая некий график, в котором отображалась мера дружелюбия со стороны человека по отношению к машине, он сделал общий вывод, что человеку обычно приятнее иметь дело с механизмом, имеющим антропоморфные черты. Правда, эта закономерность имела силу до определенного порога, и когда машина становится слишком уж похожей на человека, в психике наблюдателя включаются механизмы тревоги — такие же, как при виде мертвого или больного человеческого существа. В этот момент на графике наблюдается провал (это и есть «зловещая долина»), а потом уже кривая снова тянется вверх, по мере того как имитация становится все более похожа на настоящего человека, то есть идеального андроида. Видим ли мы здесь некое преломление наших рефлексов, касающихся выбора между обороной и бегством, или же имеет место что-то более сложное — в любом случае Мори выбрал для этого провала очень подходящее слово. В «зловещей долине» мы сталкиваемся не с чистым страхом, а со смесью узнавания и испуга, с переплетающимися между собой симпатией и отвращением. Это пример когнитивного диссонанса, с которым наш разум ужиться просто не в силах. Мы будем реагировать похожим образом, если повстречаемся с разговаривающей елкой или хохочущим трупом.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

У Некси немало столь же сомнительных приятелей. Вот, к примеру, японский социальный робот СВ2 с пропорциями нормального ребенка, живыми глазами и серой кожей, точно так же вызывает ужас у блоггеров и репортеров. Или возьмем другую японскую игрушку, KOBIAN. У нее страстное, выразительное лицо, выступающие надбровные дуги и пухлые ярко-красные губы. Пресса единодушно признала ее чудовищем. Авторы всех этих социальных роботов изо всех сил пытались перескочить через «зловещую долину», и тем не менее в лабораториях множатся натуралистически вылепленные куклы, которые так и не смогли перебраться через пропасть и упокоились в этом кишащем всякой нечистью ущелье.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

К счастью, теория «зловещей долины» на поверку оказывается далеко не столь убедительной, как представляется на первый взгляд. Испугавшись ролика на YouTube, я ожидал, что при личной встрече с Некси у меня просто волосы встанут дыбом. Вместо этого я видел на стенах лаборатории мониторы, многократно отображающие мою бессмысленную улыбку. Во лбу у Некси вмонтирована инфракрасная камера. Она работает как дальномер, и мое лицо в нем прорисовывается просто как черно-серая каша. Зато камера, встроенная в его правый глаз, видит меня во всех цветах. Вот я сдвигаюсь в сторону, и взгляд Некси плавно переходит на следующее лицо. Вместо отвращения я чувствую легкий укол ревности. Мне хочется, чтобы Некси снова посмотрел на меня.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Для того чтобы наши роботы не вызывали отвращения, мы используем довольно простые и эффективные приемы», — говорит Берлин. Секрет успеха — чуть потрепанная книга с твердой обложкой: «Иллюзия жизни — мультипликация Диснея». Эту книгу листают все в Personal Robots Group. «Ведь мы, по сути, занимаемся мультипликацией, только прямо в режиме реального времени», — говорит Берлин. Как и у большинства мультяшных героев, в чертах и жестикуляции Некси заложена некая утрированная человечность. Когда он тянется к какому-нибудь предмету, его рука не выстреливает вперед со зловещей механической безупречностью. Некси не спешит — вот он сфокусировал взгляд, принял подобающую позу и плавно замахнулся рукой. В плане механическом это не слишком эффективно, но зато в психологическом — успех налицо.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сотни людей, включая обитателей трех домов престарелых в окрестностях Бостона, успели пообщаться с Некси, и не было ни одного случая, чтобы человек бежал от робота с криками ужаса. Напротив — многие старички норовили пожать роботу руку или похлопать его по плечу, а один — так даже поцеловал. «Его взаимодействие с людьми так похоже на подлинное общение, что люди включаются в эту игру и воспринимают его как партнера, а вовсе не как машину, — говорит Синтия Бризил, руководитель Personal Robots Group. — Экспериментируя с Некси, мы убедились, что, если поведение робота соответствует общепринятым представлениям о доверительности и дружелюбии, окружающие реагируют на него точно так же, как реагировали бы на людей. Мы нащупали те же самые кнопки».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Если прямо на наших глазах «зловещая долина» превращается в неглубокую канаву и реальная встреча с андроидом позволяет легко через нее перепрыгнуть, успех Некси и его соплеменников ставит перед человечеством более глубокий вопрос — почему мы так легко привязываемся к роботам?

«Похоже, мы просто беззащитны перед эмоциональными привязанностями к тем или иным объектам, — говорит Шерри Теркл (руководитель проекта "Технология и личность"), — так прилично ли нам спекулировать на этом?» Теркл изучала сильную привязанность, которая возникает у людей в отношении таких роботов, как, скажем, Paro. (Это созданный в терапевтических целях робот, внешне похожий на тюленьего детеныша. Он трогательно копошится у вас на руках, урчит, когда вы его гладите, и затихает, подзаряжаясь от подключенной к сети соски.) Шерри экспериментально подтвердила, что дети, играя с роботизированными куклами, всерьез видят в них разумных существ, наделенных эмоциями. Ее тревога лишь окрепла, когда она увидела, какую роль в жизни стариков может играть такая безделица, как Paro — всего лишь плюшевая игрушка с электрической начинкой. «Скажите, зачем вам роботизированная няня?- спрашивает Шерри. — Что мы обычно говорим нашим детям и старикам? Что мы заняты, что пусть они подождут, пока мы разберемся с новостями из интернета».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Такие исследователи, как Теркл, хорошо понимают, что широкое распространение социальных роботов опасно, хотя и неизбежно. Некоторые аналитики предсказывают, что к 2015 году масштаб рынка персональных роботов достигнет $15 млрд. По сути, Теркл всего лишь призывает нас к осторожности, ибо страшно передоверять святыню человеческого общения безличным машинам. Огромную тревогу должна вызывать судьба тех, ради кого и создается новая отрасль, а это и дети в школах, которым не по карману нанять полный штат педагогов, и старики, страдающие болезнью Альцгеймера. Армия роботов, присматривающих за старыми и малыми, обойдется гораздо дешевле, чем тысячи учителей и профессиональных сиделок. Но представим себе, как будет ориентироваться в мире непредсказуемых человеческих отношений новое поколение, которое вырастет среди роботов-друзей и роботов-педагогов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Одно из возможных решений — забыть на время об уже достигнутой автономности и использовать социальных роботов просто в качестве игрушек. Вот, к примеру, Huggable — еще один робот, построенный в MIT Personal Robots Group. Это медвежонок, управляемый прямо через интернет-браузер. Его создатели надеются, что эта игрушка будет к месту в детских больницах, она сможет веселить прикованных к постели детей, а ее дистанционное управление можно передать в руки родственников или врачей. Пока еще Huggable не имеет собственной «личности». Это всего лишь механическая кукла. Она может передавать голос того, кто ею управляет, но ей пока еще далеко до полноценного социального существа. Ноэль Шарки, профессор с кафедры искусственного интеллекта и робототехники в британском университете Шеффилда, в своей недавней статье об опасных тенденциях в современном японском производстве роботизированных игрушек (речь шла о моде на «родительские повадки» в их поведении и о соблазне использовать роботов в качестве сиделок) упомянул Huggable как пример, когда отказ от автономности можно воспринимать как положительный момент. «В отличие от ситуации, когда полностью автономный или почти автономный робот берет на себя функции сиделки, такие дистанционно управляемые машинки уже не вызывают опасений этического порядка».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Практически все исследователи согласны, что для общения с роботами нам необходимы хоть какие-то этические ориентиры, причем прямо сейчас. Дело не в том, что мы должны закладывать в роботов что-то вроде моральных принципов, а в том, что их создатели вынуждены работать в ситуации этического и юридического вакуума. Когда дискуссия вязнет в абстрактных рассуждениях и не подкрепляется достаточным количеством эмпирических данных, некий набор четко сформулированных нравственных ориентиров мог бы послужить чем-то вроде страхового полиса. «Меня страшат не столько воображаемые пакости, которых можно было бы ждать от роботов, — говорит инженер Крис Элиот, соавтор недавнего доклада Королевской Академии об автономных системах.- Меня страшат те пакости, которых можно ждать от людей». Пусть даже окажется, что в психологическом плане социальные роботы абсолютно безвредны, — Элиота заботит такой поворот событий, когда чья-то одна-единственная промашка сможет породить такой социальный откат, при котором пойдут прахом многие годы общего труда. Представьте себе шумиху в СМИ по поводу первого пациента, умершего под ножом робота-хирурга, сообщение о том, что управляемая роботом машина врезалась в школьный автобус, или видеоклип, где робот-санитар дерется со слабоумным пациентом. «Законодательство отстало от сложившейся ситуации, — говорит Элиот. — Недалеко то время, когда мы не сможем найти применения новым роботам просто из-за атмосферы полной юридической неразберихи».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Философы, моралисты, адвокаты и робототехники только начали облекать плотью давние наброски Азимова о моральном кодексе робота. Пройдет время, и мы, наверное, избавимся от давних иррациональных страхов перед роботами и перекроем все мыслимые возможности для какого-либо отката назад. И вот тогда может прийти время для роботов типа Некси.

Я вспоминаю, что мне недавно рассказывала Бризил: для детей, которые выросли среди роботов, «зловещей долины» просто не существует, а сюжет «Терминатора» ничуть не страшнее сказок братьев Гримм. Похоже, детям легко понять и принять как таинственные способности роботов, так и пределы, положенные этим способностям. Так же легко они воспринимают и похожие на них машины, специально созданные для того, чтобы все время быть с ними рядом. Может, в этом и есть предназначение Некси — послужить первым осторожным опытом, чем-то вроде прививки против безумных страхов и извращенных представлений, в которых выросли мы, старшее поколение.