Обладает ли ИИ сознанием: ответа нет, а он уже нужен

Лидеры Ассоциации математической науки о сознании написали доклад для ООН, в которым они призывают обратить самое пристальное внимание на вопрос «сознания ИИ». Ученые подчеркивают, что в связи со стремительным развитием ИИ этот вопрос не является чем-то фантастическим и его не следует откладывать на далекое будущее. ИИ может стать сознательным, и людям хорошо бы знать, когда это случится.
Обладает ли ИИ сознанием: ответа нет, а он уже нужен
Стандартный метод оценки того, обладают ли машины сознанием, пока не разработан. Peter Parks/AFP via Getty
Может ли ИИ обрести сознание? Или какие-то системы уже себя осознают? На данный момент никто не знает ответов на эти вопросы, и это серьезная проблема

В комментариях для ООН три лидера Ассоциации математической науки о сознании (AMCS) призывают к увеличению внимания и дополнительному финансированию в области сознания искусственных систем. Ученые говорят, что научные исследования границ между сознательными и бессознательными системами необходимы, и ссылаются на этические и юридические вопросы, на проблемы безопасности, которые делают крайне важным ответ на вопрос: есть ли сознание у ИИ. Например, если у ИИ сознание есть (или когда оно будет), можно ли разрешить людям просто отключать систему после использования?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По словам члена правления AMCS Джонатана Мейсона, математика из Оксфорда, Великобритания, и одного из авторов комментариев, подобные опасения по большей части отсутствовали в недавних дискуссиях о безопасности ИИ, таких как громкий саммит по безопасности ИИ в Великобритании (мы писали об этом саммите). Мейсон отмечает, что решения всластей США, направленные на ответственное развитие технологий искусственного интеллекта, не затрагивает проблемы, возникающие в связи с сознательными ИИ-системами.

Другими авторами комментариев были президент AMCS Ленор Блюм, ученый-теоретик в области информатики из Университета Карнеги-Меллон в Питтсбурге, штат Пенсильвания, и председатель правления Йоханнес Кляйнер, математик, изучающий сознание в Мюнхенском университете Людвига-Максимилиана в Германии.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Это уже не фантастика

ИИ проникает во все наши задачи и приложения
ИИ проникает во все наши задачи и приложения
Unsplash

Науке неизвестно, существуют ли сознательные системы ИИ и будут ли они созданы. По словам Мэйсона, даже узнать, была ли такая система разработана, крайне непросто, поскольку исследователям еще предстоит создать научно обоснованные методы оценки сознания у машин. «Наша неуверенность в отношении сознания ИИ — одна из многих вещей, которые должны нас беспокоить, учитывая темпы прогресса», — говорит Роберт Лонг, философ из Центра безопасности ИИ, некоммерческой исследовательской организации в Сан-Франциско, Калифорния.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Подобные опасения уже не являются просто научной фантастикой. Такие компании, как OpenAI — фирма, создавшая чат-бота ChatGPT, — стремятся разработать общий искусственный интеллект (AGI) — систему глубокого обучения, способную выполнять широкий спектр интеллектуальных задач, аналогичных тем, которые выполняют люди. Некоторые исследователи прогнозируют, что это станет возможным через 5–20 лет. Несмотря на это, область исследований сознания остается неисследованной, говорит Мейсон.

Возникший информационный пробел описан в докладе руководителей AMCS Консультативному органу ООН по искусственному интеллекту, который был запущен в октябре 2023 года и в середине 2024 года планирует выпустить отчет о том, как мир должен управлять технологиями ИИ. Представление руководителей AMCS не было опубликовано публично, но ООН подтвердила авторам, что комментарии группы станут частью ее «основополагающего материала» — документов, содержащих рекомендации по глобальному надзору за системами ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По мнению исследователей AMCS, понимание того, что может сделать ИИ сознательным, необходимо для оценки последствий для человечества создания сознательных систем ИИ, включая возможные опасности. Людям придется оценить, разделяют ли такие системы человеческие ценности и интересы, если «ценности и интересы» ИИ не будут совпадать с человеческими конфликт людей и машин практически неизбежен.

Какие машины нужны

Эмоциональный робот, говорящий на Python
Эмоциональный робот, говорящий на Python
DOI: 10.48550/arxiv.2312.06571
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Но люди также должны учитывать возможные потребности сознательных систем искусственного интеллекта, говорят исследователи. Могут ли такие системы пострадать? Если мы не признаем, что система ИИ обладает сознанием, а она им на самом деле обладает, мы можем причинить боль сознательной сущности, говорит Лонг: «На самом деле у нас нет большого опыта распространения морального внимания на сущности, которые не выглядят и не действуют как мы сами». По его словам, неправильное приписывание сознания также станет проблемой, поскольку люди не должны тратить ресурсы на защиту систем, которые не нуждаются в защите.

Некоторые из вопросов, поднятых в комментариях AMCS, чтобы подчеркнуть важность проблемы сознания относятся к области права и юриспруденции: должна ли сознательная система ИИ нести ответственность за преднамеренное правонарушение? Следует ли предоставить сознательному ИИ те же права, что и людям? Ответы могут потребовать внесения изменений в законы, по которым живут люди.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По мере того, как компании разрабатывают все более функциональные системы искусственного интеллекта, общественность будет все чаще задаваться вопросом, обладают ли такие системы сознанием, и ученым придется на этот вопрос отвечать и делать это максимально объективно и аргументированно. И предлагать свои рекомендации, как жить с сознательным ИИ.

Философ Сьюзан Шнайдер разделяет эту озабоченность. Она говорит, что чат-боты, такие как ChatGPT, кажутся настолько человечными, что люди бывают сбиты с толку и вполне могут прийти к выводу, что эти системы обладают сознанием. Зато другие, наоборот, высмеивают любые опасения по поводу сознания ИИ.

Сегодня работа по сознанию ИИ уже ведется, хотя и недостаточно развернутая. Например, Лонг и группа других исследователей разработали список критериев для оценки того, обладает ли система сознанием.