В OpenAI предупредили о риске вымирания человечества из-за искусственного интеллекта
Краткое заявление, которое, по словам CAIS, призвано открыть дискуссию на тему «широкого спектра важных и неотложных рисков, связанных с ИИ», гласит: «Снижение риска вымирания человечества из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Вымирание человечества
Среди известных подписантов заявления — лауреаты премии Тьюринга Джеффри Хинтон и Йошуа Бенгио, генеральный директор OpenAI Сэм Альтман, главный научный сотрудник OpenAI Илья Суцкевер, технический директор OpenAI Мира Мурати, генеральный директор DeepMind Демис Хассабис, генеральный директор Anthropic Дарио Амодей и профессора из Калифорнийского университета в Беркли, Стэнфорда и Массачусетского технологического института.
Это заявление появилось во время путешествий Альтмана по миру, в ходе которых он проводит встречи с главами государств по поводу искусственного интеллекта и его потенциальных опасностей. Ранее в мае Альтман выступал за регулирование своей отрасли перед Сенатом США.
Учитывая его небольшой объем, открытое письмо CAIS примечательно тем, чего в нем нет. Например, в нем не уточняется, что именно подразумевается под «искусственным интеллектом», учитывая, что термин может применяться к чему угодно, от виртуальных соперников в играх до языковых моделей, которые могут писать сонеты в стиле поэтов Серебряного века. В письме также не предлагается, как можно снизить риски вымирания, только то, что это должно быть «глобальным приоритетом».