Наступление ИИ. Стоит ли его бояться. Главные научные новости недели
И разработчики, и политики призывают к той или иной форме контроля ИИ. А в тоже время ИИ развивается самыми быстрыми темпами в истории
Создатели ChatGPT: СЕО компании OpenAI Сэм Альтман и ведущие разработчики GPT — Грэг Брокман и Илья Суцкевер разместили на сайте компании пост, в котором они описали свое видение будущего ИИ. Они назвали колонку «Управление суперинтеллектом». Это не официальный документ компании, а именно частное мнение ведущих специалистов по разработке ИИ. Начинают они со смелого прогноза: «Учитывая картину, которую мы видим сейчас, можно предположить, что в течение следующих десяти лет системы ИИ превзойдут уровень квалификации экспертов в большинстве областей и будут вести столь же продуктивную деятельность, как крупнейшие современные корпорации».
Такой прогноз в первую очередь основан на темпах развития большой лингвистической модели генеративного ИИ — GPT, созданной компанией OpenAI. Эти темпы действительно впечатляют. Особенно сильное впечатление произвел не только на специалистов, но и на публику прогресс между ChatGPT 3.5 (запущенной в ноябре 2022 года) и ChatGPT 4.0 (апрель 2023 года). Потрясение было настолько сильным, что Илон Маск, который давно предупреждает об опасности ИИ, и целый ряд экспертов призвали остановить развитие генеративных ИИ.
В письме Маска был призыв остановить разработки больших лингвистических моделей, таких как GPT, на полгода. Теперь и разработчики GPT согласились с этим призывом. Они написали, что развитие крупных систем должно быть контролируемым, и можно его иногда и притормозить. Кто будет решать пора ли тормозить? Некоторое международное агентство — аналог МАГАТЭ (агентство по ядерной энергетике ООН). И такое агентство надо создать.
Сэм Альтман выступал в Белом Доме и Сенате США, где отвечал на вопросы озабоченных политиков. Развитие ИИ обсуждалось и на саммите G7. И там тоже решили создавать агентство по контролю ИИ. Обсуждение уже началось. И до конца года первые предложения должны появиться. Не очень понятно, как все эти системы контроля повлияют на невероятно быстрое развитии самых разных приложений ИИ.
Чего бояться? Есть несколько моментов о которых всегда говорят, когда речь заходит о «плохом» ИИ. И это, как правило, не страх перед тем, что ИИ займет все возможные рабочие места. То, что ИИ, скорее всего, не рабочие места займет, а переформатирует рынок труда (и произойдет это совсем не завтра), это понимают многие, хотя и не все.
Что больше всего беспокоит — это фейки. И глубокие, и не очень. Например, на этой неделе была анонсирована система, которая идеально вписывает изображение человека в любую сцену. Это не копи-паст. Система как бы заново генерирует сцену, но уже с человек внутри нее. Распознать подделку практически невозможно. Сделана система, конечно, из благих побуждений. Например, это позволяет осуществлять виртуальную примерку одежды. Да, это тоже можно. Но можно и другое. И не всегда безобидное. Сэм Альтман и его коллеги говорят, что картинки и тексты, созданные ИИ, должны содержать своего рода «водяные знаки», чтобы другие ИИ их легко находили. Но это, судя по всему, возможно не всегда.
Например, сегодня есть системы ИИ (так называемые детекторы), которые должны распознавать тексты, созданные машиной. Но они работают крайне ненадежно. По крайней мере, 20% текстов, написанных человеком, все существующие на сегодня детекторы считают созданными машиной. Это очень опасно, поскольку ведет к обвинениям людей в плагиате. Самой уязвимой группой оказываются студенты. Обычно детекторы машинного текста приписывают машине тексты, написанные людьми, для которых английский неродной. И ясно, что, например, при сдаче TOEFL такой детектор использовать нельзя. А ведь именно здесь самое уязвимое место: велика вероятность, что недобросовестный студент ради TOEFL «попросит» помощи у GPT. Но если в картинку еще можно куда-то встроить водяной знак, то куда его встроить в короткий текст — непонятно.
Есть и другой момент, он связан с использованием ChatGPT и других чат-ботов в поиске. Чат-боты дают гладко изложенные и, на первый взгляд, полезные ответы. Но это на «первый взгляд». Проверили. Оказалось, что «видимая достоверность» ответов, это вообще-то не хорошо, а плохо. Потому что она маскирует довольно безрадостную картинку: примерно половина утверждений не были подкреплены пруфами, у четверти цитат ссылки вели куда-то не туда совсем. Приписать Гёте цитату из Шиллера или вовсе что-нибудь новенькое ему присочинить, это еще самое безобидное. При быстром поиске человек, как правило, не погружается слишком глубоко в выяснение надежности ссылок. А излагают чат-боты довольно гладко. Берем, что они говорят. И получается в результате не здорово.
Но все равно остается вопрос и к разработчикам ChatGPT, и к Илону Маску, и к другим экспертам: неужели нет никакого другого способа защитить человечество от ИИ, кроме глобальной системы контроля (по сути государственной и международной цензуры)? Они, похоже, других методов не знают.