Эксперт: угроза вымирания человечества от ИИ сильно преувеличена
С тех пор как полгода назад вышло приложение ChatGPT, профессор Нью-Йоркского университета Гэри Маркус высказывал предостережения по поводу слишком быстрого развития и внедрения искусственного интеллекта. Но в противовес апокалиптическим обличителям ИИ, он сказал в недавнем интервью AFP, что экзистенциальные угрозы ИИ в настоящее время несоразмерно «раздуты».
«Лично я не очень обеспокоен риском вымирания, по крайней мере сейчас, потому что сценарии не настолько конкретны», — сказал Маркус в Сан-Франциско. — «Более общая проблема, которая меня беспокоит заключается в том, что мы создаем системы ИИ, которые не очень хорошо контролируем, и я думаю, что это создает много рисков, но вряд ли "экзистенциальных"".
Задолго до появления ChatGPT Маркус разработал свою первую программу ИИ - программное обеспечение для школьников по переводу латыни на английский язык, а после нескольких лет изучения детской психологии основал Geometric Intelligence, компанию по машинному обучению, которую впоследствии приобрел Uber.
Почему ИИ?
В марте, встревоженный тем, что создатель ChatGPT OpenAI выпускает свою последнюю и более мощную модель ИИ совместно с Microsoft, Маркус вместе с более чем 1000 человек, включая Илона Маска, подписал открытое письмо, призывающее к глобальной паузе в развитии ИИ.
Но на прошлой неделе он отказался подписать более лаконичное заявление лидеров бизнеса и специалистов — в том числе CEO OpenAI Сэма Альтмана, — которое вызвало большой ажиотаж. Кстати, мы писали об этом письме.
Письмо состоит из одного предложения: «Снижение риска исчезновения человечества из-за искусственного интеллекта должно стать глобальным приоритетом — наряду с другими рисками, такими как пандемии и ядерная война».
Среди подписавших были те, кто создает системы с целью достижения «общего» ИИ (AGI) — технологии, которая позволит достичь когнитивных способностей равных человеку. «Если вы действительно считаете, что существует экзистенциальный риск, зачем вы вообще над этим работаете? Это вполне справедливый вопрос», — сказал Маркус.
Вместо того чтобы сосредоточиться на надуманных сценариях, при которых никто не выживет, обществу следует обратить внимание на реальные опасности, считает Маркус: «Люди могут попытаться манипулировать рынками с помощью ИИ, чтобы вызвать беспорядки и хаос, а потом, например, обвинить русских и сказать: "Посмотрите, что они сделали с нашей страной", хотя на самом деле русские к этому совершенно не причастны».
Главной опасностью эксперт считает дипфейки, которые может создавать генеративный ИИ — сегодня это поддельные фотографии, а совсем скоро и видеоролики. Это может стать угрозой демократии: «Демократия основывается на наличии разумной информации и принятии правильных решений. Если никто не знает, чему верить, то как вообще можно говорить о демократии?»
На слушаниях в Сенате США в мае, сидя рядом с Сэмом Альтманом, Маркус выступил за создание национального или международного агентства, ответственного за управление ИИ. Эту идею поддерживает и Альтман, который только что вернулся из европейского турне, где он призвал политических лидеров найти «правильный баланс» между безопасностью и инновациями.
Но остерегайтесь оставлять власть корпорациям, предупреждает Маркус: «Последние несколько месяцев стали настоящим напоминанием о том, что крупные компании, которые здесь заправляют, не обязательно заинтересованы в заботе о человечестве».
Гэри Маркус — один из самых известных ИИ-скептиков. Он считает, что слухи относительно того, что ИИ захватит мир — сильно преувеличены