Сэм Альтман руководитель компании OpenAI разработчика Chatbot выступил на слушаньях о развитии ИИ
Альтман предложил создать глобальное агентство, которое будет представлять собой аналог МАГАТЭ. Такое агентство будет лицензировать самые мощные системы искусственного интеллекта и иметь полномочия «отбирать эту лицензию и обеспечивать соблюдение стандартов безопасности».
Стартап OpenAI, базирующийся в Сан-Франциско, привлек внимание общественности после того, как в конце прошлого года он выпустил ChatGPT — самое быстро растущее приложение в истории. Сегодня оно насчитывает сотни миллионов пользователей.
Все началось с настоящей паники среди преподавателей университетов и школ по поводу использования ChatGPT для автоматической подготовки домашних заданий. Но быстро возникла более широкая озабоченность по поводу способности новейших инструментов «генеративного ИИ» вводить людей в заблуждение, распространять ложь, нарушать авторские права и занимать рабочие места.
Пока нет никаких признаков, что Конгресс США разработает новые правила ИИ, как это сделали европейские законодатели: 11 мая Евросоюз принял AI Act, регулирующий и ограничивающий использование ИИ.
Как ИИ «заменил» сенатора
Сенатор Ричард Блюменталь, возглавляющий подкомитет по неприкосновенности частной жизни, технологиям и законодательству судебного комитета Сената, открыл слушания записанной речью, которая звучала как речь сенатора, но на самом деле это был голосовой клон, натренированный на выступлениях Блюменталя и произносящий написанный ChatGPT текст.
Блюменталь спросил: а что было бы, если бы его голосовой клон сказал что-то этически и законодательно неприемлемое?
Блюменталь заявил, что компании, занимающиеся разработкой искусственного интеллекта, обязаны раскрывать общественности известные риски перед выпуском продукта, и выразил особую озабоченность тем, что будущие системы ИИ могут дестабилизировать рынок труда.
Что тревожит самих разработчиков ИИ
Когда Альтмана спросили о его собственных худших опасениях относительно ИИ, он уклонился от конкретных примеров, но сказал, что эта отрасль может нанести «значительный вред миру», если ее развитие с самого начала пойдет в неправильном направлении, «то все может пойти совсем не так».
Но Альтман предложил новому регулирующему органа (которого пока не существует) блокировать модели ИИ, которые могут «самовоспроизводиться и самораспространяться в дикой природе». Альтман имел ввиду футуристические опасения относительно продвинутых систем ИИ, которые смогут манипулировать людьми и захватят контроль над развитием технологий.
«Именно страх перед этими (сверхмощными) системами и наше непонимание их сути заставляет всех коллективно сходить с ума», — сказал Суреш Венкатасубраманиан, исследователь из Университета Брауна, - «Этот страх необоснован и отвлекает от реальных проблем, с которыми мы сейчас имеем дело».
Путь Сэма Алтмана
OpenAI выражает опасения развитием ИИ с момента своего создания. Основанный Альтманом в 2015 году при поддержке Илона Маска стартап превратился из некоммерческой исследовательской лаборатории в крупную компанию, которая видит свою миссию в том числе в обеспечении безопасности в бизнесе. Среди других популярных продуктов компании, созданных на основе ИИ, — генератор картинок по текстовому описанию DALL-E. Microsoft инвестировала миллиарды долларов в стартап и интегрировала его технологию в свои продукты, включая поисковую систему Bing.
В этом месяце Альтман планирует отправиться в мировое турне по столицам государств и крупным городам на шести континентах, чтобы рассказать о технологии ИИ политикам и общественности. Накануне своего выступления в Сенате он пообедал с десятками американских законодателей, некоторые из которых сказали, что были впечатлены его комментариями.
За и против
В слушаньях приняли участие Кристина Монтгомери, руководитель отдела конфиденциальности IBM и Гэри Маркус, заслуженный профессор Нью-Йоркского университета. Маркус (как и Илон Маск) вошел в группу экспертов по ИИ, подписавших письмо, призвавшее OpenAI и другие технологические компании приостановить разработку более мощных моделей ИИ на 6 месяцев, чтобы дать обществу больше времени для рассмотрения рисков. Письмо стало ответом на выпуск в марте последней модели OpenAI — GPT-4, которая оказалась намного более мощной, чем GPT-3.5.
Альтман и Маркус призвали к созданию регулятора, ориентированного на ИИ, желательно международного, при этом Альтман сослался на прецедент МАГАТЭ — ядерного агентства ООН. Маркус сравнил будущего регулятора ИИ Управлением по контролю за продуктами и лекарствами США (FDA).
Кристина Монтгомери из IBM вместо этого попросила Конгресс применить подход «точечного регулирования». «Мы считаем, что регулирование ИИ должно осуществляться, по сути, в точке риска», — сказала Монтгомери, то есть стоит установить правила, регулирующие развертывание конкретных видов использования ИИ, а не саму технологию.
Генеральный директор OpenAI Сэм Альтман: «По мере развития технологии ИИ мы понимаем, что люди обеспокоены тем, как она может изменить наш образ жизни. Мы тоже».