Робот, общаясь в Твиттере, за сутки стал расистом и человеконенавистником
Меньше чем за сутки бот от фраз, вроде «Привет, мир!» и «Все люди классные» перешел к откровенно нацистским и расистским высказываниям, начал обильно употреблять нецензурную лексику и писать откровенные посты порнографического характера с инцестуальным подтекстом.
Естественно, ситуация оказалась неприятной. «Майкрософт» отключил бота, стер большую часть его высказываний, но остались скриншоты. Конечно, можно винить алгоритмы обучения, несовершенство самой системы и недальновидность компании и программистов, невозможно не увидеть во всей ситуации некоторую анекдотичность, но Тау ярко продемонстрировала одну фундаментальную черту, свойственную всем искусственным интеллектам: они — лишь зеркало. Искусственному интеллекту — особенно нейросетям, которые учатся поведению, перерабатывая огромные массивы информации и повторяя их — нужна отправная точка, откуда он начинает свое развитие. И ее он может получить только от нас. Другого пути нет.
Конечно, в случае с Тау надо помнить, что процесс ее изменения был не пассивным. Она не просто находилась в Твиттере и слушала человеческие разговоры вокруг. О ней было объявлено достаточно широко, было немало статей в прессе, и пранкеры действительно решили посмотреть, смогут ли они научить бота быть расистом, и сколько времени на это понадобится.
Поведение Тау, таким образом, это не отражение реального человеческого поведения, а скорее последствие действий тех людей, которые ради веселья решили проверить систему на прочность в ту же секунду, как у них появился такой шанс. То есть зеркало в этом случае показывало не наше реальное отражение, а те гримасы, которые мы корчили в него ради хохмы. И, возможно, это в каком-то смысле хуже.
Тау не может понять, что конкретно она говорит, понятия расизма, нацизма или инцеста для бота не имеют того значения, что они имеют для людей. И когда искусственный интеллект в твиттере начинает ругаться, называть себя «плохим грязным роботом» или говорить, что «геноцид — это забавно», кому-то это может показаться смешным. Но все меняется, если представить, что подобные фразы будут принадлежать какой-то большой системе искусственного интеллекта. А исследования в области искусственного интеллекта за последнее время невероятно ускорились, приняв во многом лавинообразный характер, который уже явно будет крайне сложно, если вообще возможно, не то что остановить, но даже замедлить.
Интеллект AlphaGo победил человеческих чемпионов по игре в го, хотя еще недавно специалисты говорили, что это будет возможно лишь через несколько десятилетий. Компания «Хитачи» запустила искусственный интеллект, который управляет живым персоналом, и тот, работая в качестве директора, сразу увеличил производительность предприятия на 8%. Искусственный интеллект «IBM Watson» помогает врачам в клинике устанавливать диагнозы и прописывать лекарства, а также ищет новые способы лечения рака легких у людей и оказывает психологическую поддержку военным после демобилизации, облегчая им жизнь на «гражданке». Чатбот Xiaoice (по сути, в некотором смысле родственник Тау, также созданный «Майкрософт» и пользующийся огромной популярностью в Китае) первым из роботов официально получил работу, ведет прогноз погоды на телеканале, а также помогает людям справиться с депрессией после того, как их любовные ожидания потерпели неудачу. В Японии роман, написанный при помощи искусственного интеллекта, прошел отбор в первый тур литературного конкурса.
Как ни странно, но возможности искусственного интеллекта растут быстрее, чем мы думаем. И когда появится следующая мощная система с совершенно новыми возможностями, прежде всего, она посмотрит на людей. И если люди, или же просто группа пранкеров или Интернет-троллей, начнет ради смеха кричать и писать ей, что «люди ужасны, лол», вот именно «лол» искусственный интеллект может не понять, а шутки — не оценить.