Право не быть роботом. Что вы знаете о робоэтике
Наверняка вы эти законы слышали: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред» – ну и дальше, про обязанность подчиняться человеку и обеспечивать собственную безопасность, если это не противоречит предыдущему закону. Впоследствии были придуманы разные дополнения, в том числе и самим Азимовым, который в своей фантастике продолжал ставить роботов в сложные ситуации – и смотреть, как работают его законы. В одном из поздних текстов у него даже появился очень сомнительный, но понятный любому политику «нулевой закон робототехники», который обязывал робота не допускать вреда человечеству – подразумевая, что робот всё-таки может наносить вред отдельным людям, если это делается «ради всего человечества».
Есть, однако, более сильное допущение у Азимова, которое не замечают во многих дискуссиях о «законах робототехники». Дело в том, что обязанности обычно предполагают и права. Роботы-андроиды в рассказах Азимова вели себя так, словно они по умолчанию уже получили право на самостоятельную деятельность в самых разных сферах, включая сферу человеческой жизни. А это, если задуматься, довольно опасная идея.
Между тем, предложения дать роботам «некоторые права» озвучиваются уже на серьёзном уровне. Конечно, можно не считать серьёзным футуролога Яна Пирсона из British Telecom, который двадцать лет назад обещал, что роботы получат гражданские права уже в 2020 году. С одной стороны, прогноз этот вроде бы не сбылся. Но с другой, в 2017 году Европарламент опубликовал текст законопроекта о правилах робоэтики – и там действительно говорится о возможности создания «особого правового статуса для роботов, чтобы самые продвинутые автономные роботы могли иметь статус электронной личности с особыми правами и обязанностями».
Итак, автомобиль с собственными правами – ну не бред ли? Однако именно пример с автомобилем позволяет понять, кто и зачем хочет введения подобных прав. Когда я спросил знакомого юриста, кто должен отвечать за преступления робота, он ответил, что скорее всего это должен быть его владелец или «опекун», поскольку для робота самая близкая из существующих аналогий – это недееспособный человек (как ребёнок, старик или психически больной).
Но мой знакомый программист возражает: владелец автомобиля не является владельцем той программы искусственного интеллекта, которая управляет автомобилем и осуществляет наезд на пешехода. Вы даже не являетесь владельцем операционной системы, которая позволяет вам читать мою статью на компьютере или мобильнике; вы всего лишь покупаете лицензию на временное использование этого продукта. Производитель софта может заблокировать вам этот софт дистанционно или внести в него изменения, зато вы сами не имеете права изменять этот код. В случае «умного» автомобиля та же история: программа вам не принадлежит, вы её не контролируете. Значит, отвечать за ошибку робота должен производитель программы, а не тот, кто взял этот искусственный интеллект «во временное пользование».
Эта коллизия решилась бы легче, если бы робот-автомобиль был «электронной личностью со своими правами и обязанностями». Тогда эта самая «личность» и была бы виновата в наезде на пешехода. Очень удобно было бы и производителям, и владельцам автомобилей. Ну а то, что удобно большой группе людей, запросто может стать законом для всех.
К примеру, последнее время многие жалуются на робота ГИБДД, который автоматически присылает им штрафы «непонятно за что» на основе наблюдений через камеры. Этим летом в Нижнем Новгороде нейросеть вынесла более 7 000 штрафов за езду без включенных фар днем; опрошенные «Коммерсантом» эксперты уверяют, что у системы довольно высокий процент ошибок, и некоторым водителям уже удалось опротестовать такие штрафы. Однако понятно, что людям для этого приходится прилагать много лишних усилий, зато нейросеть совсем не устаёт: она будет штамповать ошибочные решения и дальше.
А ещё есть известный робот-надсмотрщик из Facebook (Социальная сеть признана экстремистской и запрещена на территории Российской Федерации), который закрывает людям аккаунты за изображения голой груди, даже если это курсы грудного вскармливания. Казалось бы, в таких ситуациях люди могли бы легко поправить робота. Но они этого не делают! Получается, что у робота даже больше прав, чем у людей, которые его обслуживают. И если робот чего-то не понимает, люди начинают поддерживать его ошибку. И вот уже Яндекс Дзен запрещает картины Боттичелли (робот компании пока не может отличить произведение искусства от порнографии), а социальная сеть Pinterest — поиск по слову «вакцина» (их робот не может отличить посты анти-вакцинаторов от постов за-вакцинаторов). Фактически, роботы получили право цензурировать целые области человеческих знаний.
Что остаётся после этого нам, мягким белковым существам? Видимо, пора заметить, что у человека нет никаких прав относительно окружающих роботов. А значит, нам срочно нужны новые правила безопасности – но не в виде азимовских «законов робототехники», предписанных роботам (это всё равно, что предписать этический кодекс деревьям или муравьям). Нет, в первую очередь правила защиты от произвола машин должны быть закреплены в правах людей. Например:
- право знать в любой ситуации, общаешься ли ты с роботом или с человеком;
- право получать человеческое обслуживание вместо любого робосервиса;
- право не подчиняться роботу, предложения которого грозят причинить вред человеку, или отключить робота, действия которого уже причиняют вред.
Думаю, можно начать с этих трёх законов, остальные подтянутся.
Автор: Алексей Андреев, эксперт «Лаборатории Касперского»
Если даже после этого объяснения вы считаете бредом права роботов на самостоятельную деятельность, у меня для вас совсем плохая новость: они уже получили такие права. Да-да, мы уже живём в азимовском мире, где роботам разрешено делать кучу вещей без согласования с человеком.