Обладает ли ИИ сознанием: ответа нет, а он уже нужен
В комментариях для ООН три лидера Ассоциации математической науки о сознании (AMCS) призывают к увеличению внимания и дополнительному финансированию в области сознания искусственных систем. Ученые говорят, что научные исследования границ между сознательными и бессознательными системами необходимы, и ссылаются на этические и юридические вопросы, на проблемы безопасности, которые делают крайне важным ответ на вопрос: есть ли сознание у ИИ. Например, если у ИИ сознание есть (или когда оно будет), можно ли разрешить людям просто отключать систему после использования?
По словам члена правления AMCS Джонатана Мейсона, математика из Оксфорда, Великобритания, и одного из авторов комментариев, подобные опасения по большей части отсутствовали в недавних дискуссиях о безопасности ИИ, таких как громкий саммит по безопасности ИИ в Великобритании (мы писали об этом саммите). Мейсон отмечает, что решения всластей США, направленные на ответственное развитие технологий искусственного интеллекта, не затрагивает проблемы, возникающие в связи с сознательными ИИ-системами.
Другими авторами комментариев были президент AMCS Ленор Блюм, ученый-теоретик в области информатики из Университета Карнеги-Меллон в Питтсбурге, штат Пенсильвания, и председатель правления Йоханнес Кляйнер, математик, изучающий сознание в Мюнхенском университете Людвига-Максимилиана в Германии.
Это уже не фантастика
Науке неизвестно, существуют ли сознательные системы ИИ и будут ли они созданы. По словам Мэйсона, даже узнать, была ли такая система разработана, крайне непросто, поскольку исследователям еще предстоит создать научно обоснованные методы оценки сознания у машин. «Наша неуверенность в отношении сознания ИИ — одна из многих вещей, которые должны нас беспокоить, учитывая темпы прогресса», — говорит Роберт Лонг, философ из Центра безопасности ИИ, некоммерческой исследовательской организации в Сан-Франциско, Калифорния.
Подобные опасения уже не являются просто научной фантастикой. Такие компании, как OpenAI — фирма, создавшая чат-бота ChatGPT, — стремятся разработать общий искусственный интеллект (AGI) — систему глубокого обучения, способную выполнять широкий спектр интеллектуальных задач, аналогичных тем, которые выполняют люди. Некоторые исследователи прогнозируют, что это станет возможным через 5–20 лет. Несмотря на это, область исследований сознания остается неисследованной, говорит Мейсон.
Возникший информационный пробел описан в докладе руководителей AMCS Консультативному органу ООН по искусственному интеллекту, который был запущен в октябре 2023 года и в середине 2024 года планирует выпустить отчет о том, как мир должен управлять технологиями ИИ. Представление руководителей AMCS не было опубликовано публично, но ООН подтвердила авторам, что комментарии группы станут частью ее «основополагающего материала» — документов, содержащих рекомендации по глобальному надзору за системами ИИ.
По мнению исследователей AMCS, понимание того, что может сделать ИИ сознательным, необходимо для оценки последствий для человечества создания сознательных систем ИИ, включая возможные опасности. Людям придется оценить, разделяют ли такие системы человеческие ценности и интересы, если «ценности и интересы» ИИ не будут совпадать с человеческими конфликт людей и машин практически неизбежен.
Какие машины нужны
Но люди также должны учитывать возможные потребности сознательных систем искусственного интеллекта, говорят исследователи. Могут ли такие системы пострадать? Если мы не признаем, что система ИИ обладает сознанием, а она им на самом деле обладает, мы можем причинить боль сознательной сущности, говорит Лонг: «На самом деле у нас нет большого опыта распространения морального внимания на сущности, которые не выглядят и не действуют как мы сами». По его словам, неправильное приписывание сознания также станет проблемой, поскольку люди не должны тратить ресурсы на защиту систем, которые не нуждаются в защите.
Некоторые из вопросов, поднятых в комментариях AMCS, чтобы подчеркнуть важность проблемы сознания относятся к области права и юриспруденции: должна ли сознательная система ИИ нести ответственность за преднамеренное правонарушение? Следует ли предоставить сознательному ИИ те же права, что и людям? Ответы могут потребовать внесения изменений в законы, по которым живут люди.
По мере того, как компании разрабатывают все более функциональные системы искусственного интеллекта, общественность будет все чаще задаваться вопросом, обладают ли такие системы сознанием, и ученым придется на этот вопрос отвечать и делать это максимально объективно и аргументированно. И предлагать свои рекомендации, как жить с сознательным ИИ.
Философ Сьюзан Шнайдер разделяет эту озабоченность. Она говорит, что чат-боты, такие как ChatGPT, кажутся настолько человечными, что люди бывают сбиты с толку и вполне могут прийти к выводу, что эти системы обладают сознанием. Зато другие, наоборот, высмеивают любые опасения по поводу сознания ИИ.
Сегодня работа по сознанию ИИ уже ведется, хотя и недостаточно развернутая. Например, Лонг и группа других исследователей разработали список критериев для оценки того, обладает ли система сознанием.