Эксперты обеспокоены! Как искусственный интеллект приводит к смерти реальных людей

Трагические инциденты из-за популярных чат-ботов подчеркивают опасность искусственного интеллекта (ИИ). Западные специалисты уже активно говорят о необходимости строгих мер безопасности. Так, случаи смерти подростков, эмоционально общавшихся с ИИ, предрекают изменения в будущем технологии.
Эксперты обеспокоены! Как искусственный интеллект приводит к смерти реальных людей
Created by techinsider.ru using the DALL-E

Эксперты все чаще говорят о необходимости ввести правила использования и правила работы искусственного интеллекта. Так, беспокойство в западном мире усилилось осенью 2024 года с новостью о смерти подростка из США. Сьюэлл Селтцер III покончил с собой после того, как сформировал сильную эмоциональную привязанность к чат-боту на платформе Character.AI. Искусственный собеседник стал для 14-летнего мальчика близким «другом», отчего юноша отдалился от семьи и друзей и стал хуже учиться в школе.

Как подросток говорил с ИИ:

В иск от имени матери мальчика включили записи разговоров, где бот по имени Дэни, — созданный по образу персонажа Дейенерис Таргариен из «Игры престолов», — вступает с подростком в интимные и порой тревожные диалоги, поднимая темы преступлений и суицида. 

Скриншот переписки между американским подростком Сьюэллом и чат-ботом «Дэни» /
Скриншот переписки между американским подростком Сьюэллом и чат-ботом «Дэни» /
'Megan Garcia vs. Character AI' lawsuit
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Нужно ли защищать людей от искусственного интеллекта?

Смерть реальных людей после общения с ИИ поднимает острый вопрос о необходимости регулирования и внедрения строгих мер безопасности для защиты интернет- пользователей, — особенно детей и подростков. Так, специалисты считают, что системы искусственного интеллекта способны стать «источником непредсказуемых и манипулятивных взаимодействий».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
  1. В некоторых странах, например, в Австралии, уже работают над созданием обязательных «защитных барьеров» для некоторых ИИ.
  2. В новые правила использования включили меры по управлению данными, тестированию, документации и контролю за действиями ИИ, а также привлечение специалистов для оценки рисков.
  3. Основная задача — защита от возможного ущерба после взаимодействия с ИИ.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Отмечается, что для принятия подобных мер государствам необходимо определить, какие системы будут считаться «высокорискованными». В Евросоюзе, например, системы на основе ИИ уже указаны в списке, который регулярно обновляется.

Альтернативный подход для защиты от ИИ — «оценка на основе принципов», где каждый случай рассматривают индивидуально с учетом риска для здоровья, психики и прав интернет-пользователей.
Главная страница веб-сайта с ИИ Character.AI для пользователя, который указал возраст 17 лет /
Главная страница веб-сайта с ИИ Character.AI для пользователя, который указал возраст 17 лет /
C.AI
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Почему искусственный интеллект опасен?

Пока что в Европе компаньонные чат-боты на основе ИИ — вроде Character.AI и Chai — не считаются высокорискованными, а от их разработчиков требуют лишь указание о том, что человек говорит с искусственным интеллектом.

И все же трагические случаи доказывают: системы на основе ИИ нельзя оставлять без должного контроля, ведь они способны генерировать «опасный контент и легко имитируют токсичные отношения», — как пишут западные эксперты.

При этом проблема обостряется тем, что значительная часть пользователей ИИ-ботов — подростки и люди с психическими расстройствами.

Когда упомянутый закон в Австралии начнет действовать, указанные меры безопасности затронут не только отдельные чат-боты или сайты, но и сами модели ИИ на территории страны. Специалисты добавляют, что барьеры для защиты людей должны включать не только технические методы управления рисками, но и учитывать эмоциональные и психологические аспекты взаимодействия.

Так, для эффективной защиты интернет-пользователей, важно учитывать изначальный продукт. Например, тот же интерфейс сайта Character.AI имитирует общение через текстовые сообщения, а в рекламе платформы заявлено, что она может «поддерживать» и «усиливать» действия пользователей.

Даже при соблюдении всех мер безопасности остается риск непредвиденных ситуаций. Поэтому у регуляторов должна быть возможность оперативного изъятия системы на основе ИИ с рынка, если она представляет опасность, — заключили эксперты.