Эксперты обеспокоены! Как искусственный интеллект приводит к смерти реальных людей
Эксперты все чаще говорят о необходимости ввести правила использования и правила работы искусственного интеллекта. Так, беспокойство в западном мире усилилось осенью 2024 года с новостью о смерти подростка из США. Сьюэлл Селтцер III покончил с собой после того, как сформировал сильную эмоциональную привязанность к чат-боту на платформе Character.AI. Искусственный собеседник стал для 14-летнего мальчика близким «другом», отчего юноша отдалился от семьи и друзей и стал хуже учиться в школе.
Нужно ли защищать людей от искусственного интеллекта?
Смерть реальных людей после общения с ИИ поднимает острый вопрос о необходимости регулирования и внедрения строгих мер безопасности для защиты интернет- пользователей, — особенно детей и подростков. Так, специалисты считают, что системы искусственного интеллекта способны стать «источником непредсказуемых и манипулятивных взаимодействий».
- В некоторых странах, например, в Австралии, уже работают над созданием обязательных «защитных барьеров» для некоторых ИИ.
- В новые правила использования включили меры по управлению данными, тестированию, документации и контролю за действиями ИИ, а также привлечение специалистов для оценки рисков.
- Основная задача — защита от возможного ущерба после взаимодействия с ИИ.
Отмечается, что для принятия подобных мер государствам необходимо определить, какие системы будут считаться «высокорискованными». В Евросоюзе, например, системы на основе ИИ уже указаны в списке, который регулярно обновляется.
Почему искусственный интеллект опасен?
Пока что в Европе компаньонные чат-боты на основе ИИ — вроде Character.AI и Chai — не считаются высокорискованными, а от их разработчиков требуют лишь указание о том, что человек говорит с искусственным интеллектом.
И все же трагические случаи доказывают: системы на основе ИИ нельзя оставлять без должного контроля, ведь они способны генерировать «опасный контент и легко имитируют токсичные отношения», — как пишут западные эксперты.
Когда упомянутый закон в Австралии начнет действовать, указанные меры безопасности затронут не только отдельные чат-боты или сайты, но и сами модели ИИ на территории страны. Специалисты добавляют, что барьеры для защиты людей должны включать не только технические методы управления рисками, но и учитывать эмоциональные и психологические аспекты взаимодействия.
Так, для эффективной защиты интернет-пользователей, важно учитывать изначальный продукт. Например, тот же интерфейс сайта Character.AI имитирует общение через текстовые сообщения, а в рекламе платформы заявлено, что она может «поддерживать» и «усиливать» действия пользователей.