OpenAI срочно собрала людей, которые должны помочь остановить сверхразумный ИИ, если он выйдет из-под контроля

Генеральный директор OpenAI Сэм Альтман настолько обеспокоен развитием ИИ, что его компания объявила о создании подразделения под названием Superalignment, целью которого является разработать меры защиты от апокалипсиса, вызванного искусственным интеллектом.
Никита Шевцев
Никита Шевцев
OpenAI срочно собрала людей, которые должны помочь остановить сверхразумный ИИ, если он выйдет из-под контроля
Терминатор

«Суперинтеллект станет самой эффективной технологией, которую когда-либо изобретало человечество, и может помочь нам решить многие из важнейших мировых проблем, - говорится в сообщении OpenAI, посвященном новой инициативе. — Но огромная мощь сверхразума также может быть очень опасной и привести к бесправию человечества или даже к его вымиранию».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Подразделение по «укрощению» ИИ

OpenAI заявила, что, хотя может показаться, что до сверхразумного ИИ еще далеко, она считает, что он может быть разработан к 2030 году. Компания признается, что в настоящее время не существует системы, которая управляла бы потенциально сверхразумным ИИ и предотвращала бы его выход из-под контроля.

Чтобы справиться с ситуацией, OpenAI хочет создать программу, которая выполняла бы проверки безопасности сверхразумного ИИ. Также, OpenAI заявляет, что для управления этими рисками потребуются новые институты управления и решение проблемы выравнивания сверхразума.

Для того, чтобы новые меры имели эффект, OpenAI необходимо собрать отличную команду из ведущих исследователей и инженеров в области машинного обучения.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Компания, похоже, очень откровенна в своих усилиях, описывая их как «невероятно амбициозную цель», а также признавая, что «успех затеи не гарантирован». Тем не менее, компания настроена оптимистично и верит, что целенаправленные, согласованные усилия могут решить эту проблему.

Новые инструменты искусственного интеллекта, такие как ChatGPT от OpenAI и Bard от Google, среди многих других, настолько революционны, что эксперты уверены: даже на этом уровне, предшествующем развитию сверхразума, рабочее место и общество в целом столкнутся с фундаментальными изменениями в ближайшей перспективе.

Вот почему правительства по всему миру пытаются играть в догонялки, спешно вводя правила для быстро развивающейся индустрии искусственного интеллекта в попытке обеспечить безопасное и ответственное внедрение технологии.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Однако, если не будет сформирован единый орган, у каждой страны будут свои взгляды на то, как наилучшим образом использовать технологию, а это означает, что эти правила могут сильно различаться и приводить к заметно отличающимся результатам. И именно эти различные подходы сделают достижение цели Superalignment еще более трудным.