Дружить нельзя бояться: как безопасно использовать искусственный интеллект
Компьютер в чашке Петри
Как платформа из нейронов коры головного мозга крыс научилась играть в DOOM
В последние годы ИИ развивается с колоссальной скоростью. Технологии, которые еще недавно считались футуристическими, проникают в нашу повседневную жизнь. Мы подошли к той границе, когда нужно всерьез отнестись к вопросам регулирования развития ИИ и подумать, куда оно может привести.
С одной стороны, актуальна аппаратная тема: технологические гиганты предлагают все более производительные вычислительные мощности и оптимизируют алгоритмы обучения нейронных сетей. С другой — начало развиваться «биологическое» направление, которое сейчас может восприниматься как нечто жуткое. Так, совсем недавно, летом 2023 года, ученый под псевдонимом The Thought Emporium собрал платформу из нейронов коры головного мозга крыс, которая способна играть в DOOM. Сам подход больше похож на привычный человеку процесс обучения: по звуковому сигналу нейроны воспроизводят различные паттерны. Эти паттерны, в свою очередь, обеспечивают движение персонажа, стрельбу, смену оружия и так далее.
При этом весь «компьютер» помещается в чашке Петри, тогда как сверхмощные вычислительные машины отличаются и габаритами, и энергоемкостью — но при этом едва дотягивают по количеству нейронов до мозга крысы. Если оставить за скобками этическую составляющую и предположить, что «биологические» разработки окажутся жизнеспособными, то это направление может стать продуктивнее огромных дата-центров технологических гигантов. Однако за счет этической составляющей это кажется спорным, буквально балансируя на грани принятия. Например, в России в настоящее время такая идея будет воспринята негативно. Однако в других странах — допустим, в Китае или Индии, — к этической стороне вопроса могут отнестись более нейтрально.
Можно ли доверять системе распознавания лиц
Страх компьютеров на основе живых клеток — скорее вопрос завтрашнего дня. Сегодня людей во всем мире гораздо больше волнует, можно ли доверять ИИ. Показательный пример — Китай с его системой социальных рейтингов и повсеместным компьютерным зрением. Из-за ошибки машины рейтинг могут понизить ни в чем не повинному человеку. Такое бывало уже неоднократно, и не только в Китае. Российские системы распознавания лиц тоже давали сбои и не раз принимали одних людей за других. Даже если точность модели очень высока, все равно она не достигает 100%.
При этом в обществе машина обладает определенным кредитом доверия. Большинство людей ожидает, что она не может ошибаться, или бездумно доверяет предложенным данным. И если точность «попаданий» составляет, допустим, отличные 90%, то для подавляющего процента пользователей все будет хорошо и удобно. Зато у оставшихся 10% могут возникнуть серьезные проблемы. В том же Китае человека с низким социальным рейтингом лишают возможности летать на самолете, пользоваться скоростными поездами – его фактически привязывают к месту проживания. Мера и без того неоднозначная, а в случае ошибки ИИ — еще более неприятная. Это вызывает серьезный поток негатива, и доверие к системе будет подорвано уже после трех-четырех случаев, информация о которых попадет в открытый доступ.
Авангард сегодняшнего дня: успешные сферы применения компьютерного зрения
Тем не менее, компьютерное зрение — едва ли не самая успешная сфера применения нейронных сетей в настоящий момент. Если не касаться вышеописанной этической составляющей, то распознавание образов — крайне перспективная тема. Современные модели успешно проверяют, не входят ли люди в опасные зоны на производстве, не оставляют ли вещи в местах общественного пользования, используют ли ремень безопасности при вождении автомобиля и так далее.
Это направление сперва активно развивалось в рамках задач безопасного города, но хорошо прижилось в абсолютно разных областях. Например, на Алтае с помощью компьютерного зрения отслеживают перемещение снежных барсов, анализируя данные фотоловушек, нефтедобывающие компании используют дронов для облета труднодоступных мест и фиксации повреждений трубопроводов или разлива опасных веществ, а жители Великобритании теперь автоматически получают штрафы за выброшенный из окна машины мусор. Человеку потребовалось бы много времени для анализа ситуации и принятия решения, а модель справляется с задачами практически моментально, в режиме реального времени.
Еще одна перспективная сфера — работа с естественным языком. В последние несколько лет она развивается очень активно. Первой в голову приходит Алиса от Яндекса, но и помимо нее все больше крупных соцсетей и онлайн-СМИ вводят опцию автоматической озвучки и перевода текста. Совершенствуются сервисы, переводящие речь в текст, что очень удобно для журналистов, копирайтеров, интервьюеров-социологов.
Хорошо себя показали и всевозможные автопилоты. Беспилотные автомобили и роботы-доставщики постепенно становятся обыденностью, к тому же это направление развито в сельском хозяйстве: широко применяются тракторы и комбайны, которые управляются искусственным интеллектом. Даже если в кабине сидит оператор, его участие минимально — ИИ проведет машину по колее точнее, чем человек.
На грани разумного: куда движется развитие нейронных сетей
Сейчас среди разработчиков поднимается еще пара интересных тем, связанных с применением ИИ. Первая как теория описывалась еще в начале нулевых — семантические сети. Нейронная сеть ничего не изобретает, она просто перетасовывает заложенные в нее данные, в то время как семантические сети можно научить «думать» — выстраивать абстрактные связи между различными понятиями. Это приближает искусственные алгоритмы к принципу работы человеческого мозга.
Семантические сети сложнее и более требовательны к ресурсам, чем классические нейронные сети. Поэтому направление при всей его перспективности проигрывает прижившемуся подходу. С недавним увольнением Сэма Альтмана — пусть и недолгим, связано немало спекуляций. Одна из самых популярных теорий предполагает, что он как раз работал над семантическими сетями. Именно они больше всего похожи на то, чего боятся люди. Им страшно, когда что-то искусственное становится слишком похожим на человека, а у семантических сетей, в отличие от нейронных, есть такой потенциал.
Вторая тема — развитие эмоционального искусственного интеллекта, отдельного направления на стыке эмоций и мыслительного процесса. В его рамках машину учат распознавать эмоции.
Все же главное, что отличает машину от человека – это влияние эмоций и психического состояния на процесс мышления. В отсутствие эмпатии даже знаменитая проблема вагонетки для нейронной сети будет классической задачей на оценку последствий с очевидным решением, а выбор человека может зависеть от ряда дополнительных эмоциональных факторов. Более того, человек будет испытывать дискомфорт, когда, например, общается по телефону с безэмоциональным ботом.
С одной стороны, тема перспективная, и ее можно использовать для благих целей. Если человек, звоня в службу психологической поддержки, уже на старте попадает на «эмоционального» бота, это располагает и вызывает больше доверия. Но есть и угроза: тем же инструментом может воспользоваться и мошенник. Сегодня на основе короткой записи голоса можно сделать достоверную копию с помощью ИИ. И если бот злоумышленников позвонит потенциальной жертве и голосом взволнованной мамы попросит переслать денег, человек с большой долей вероятности попадется на уловку. В главной группе риска тут те, кто долго разговаривают с мошенниками, тем самым предоставляя им образцы своего голоса для использования в нелегальных целях.
А вот бояться генеративного ИИ, на основе которого работает тот же ChatGPT, пока нет особых оснований тем более, что он не всегда оправдывает ожидания. Люди читают в интернете, как он пишет статьи и дипломы, но при первой попытке добиться связной заметки получают неудовлетворительный результат. То же касается и картинок: редко получается с помощью короткого запроса без дополнительных параметров и последующих правок получить желаемый результат.
Генеративные сети требуют отдельного навыка написания правильных запросов и уточнения контекста, о чем многие забывают. К тому же у обывателей возникает негативная реакция, когда становится очевидным, что при написании статьи или визуализации образов использовалась нейронная сеть. Все же наше общество пока что считает такой подход профанацией человеческого труда. Впрочем, в умелых руках это очень ценный инструмент, заметно упрощающий повседневную работу.
Как регулировать ИИ: поможет социальная ответственность
Очевидно, что творчество генеративных сетей пора каким-то образом регулировать. Запрещать его уже бесполезно. Даже если ввести ограничения, то следовать им будут законопослушные люди, которые и так бы не воспользовались подобным инструментом во зло. Злоумышленники будут записывать чужие голоса и подменять номера для звонков доверчивым людям, использовать чужие статьи и образцы картинок для быстрой наживы и так или иначе обойдут запрет.
Как регулировать — пока не очень понятно. Законотворчество инертно по своей природе. Пока выходит регламент, появляется несколько моделей, которые делают его неактуальным. От принятия закона до введения его в действие проходит несколько месяцев. За эти месяцы можно найти обходные пути, юридические лазейки и так далее. К тому же, как говорится, строгость законов компенсируется необязательностью их исполнения. Например, в некоторых европейских странах запрещен ChatGPT, но жители этих стран все равно им пользуются. Более того, формально в России он также недоступен, однако в открытом доступе достаточно информации о том, как обойти санкции.
Для решения этой проблемы наиболее перспективно смотрится тема социальной ответственности и осознанного использования. Нужно выстраивать определенную культуру, чтобы люди не пугались ИИ, а взаимодействовали с ним. Сейчас эта идея, возможно, звучит утопически, но к ней рано или поздно придется прийти.