Интересный эксперимент! Люди не всегда могут отличить дипфейк от реального голоса

Новое исследование показало, что люди могли распознавать искусственно сгенерированную речь только в 73% случаев.
Интересный эксперимент! Люди не всегда могут отличить дипфейк от реального голоса
Unsplash

Ученые провели первое исследование, где оценивались способности человека обнаруживать дипфейки, а в частности — искусственно сгенерированную речь на языке, отличном от английского. Дипфейки — это синтетические данные, призванные имитировать голос или внешний вид реального человека: они подпадают под категорию генеративного искусственного интеллекта (ИИ). Вот что выяснили западные специалисты.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

Как определить дипфейк

  • В то время как ранним алгоритмам «дипфейковой» речи, возможно, требовались тысячи образцов голоса человека, чтобы иметь возможность генерировать исходный звук, новейшие предварительно обученные алгоритмы могут воссоздать голос человека, используя всего лишь трехсекундный фрагмент его речи.
  • При этом алгоритмы с открытым исходным кодом находятся в свободном доступе, и, хотя человеку и понадобится некоторый опыт для осваивания технологии, практически каждый может обучиться в течение нескольких дней.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Ученые из Университетского колледжа Лондона (UCL) использовали алгоритм преобразования текста в речь (TTS), обученный на двух общедоступных наборах данных, один на английском и один на китайском, для создания 50 дипфейковых образцов речи на каждом языке.

  • Эти искусственно сгенерированные образцы и подлинные образцы были воспроизведены для 529 участников, чтобы проверить, смогут ли они отличить настоящую речь от поддельной.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
  • Участники смогли идентифицировать фальшивую речь только в 73% случаев, и это лишь немного улучшилось после того, как они прошли обучение распознаванию аспектов дипфейковой речи.
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Тревожное будущее?

Кимберли Мэй (UCL Computer Science), первый автор исследования, сказала: «Наши результаты подтверждают, что люди не могут надежно обнаруживать дипфейковую речь, независимо от того, прошли ли они обучение, помогающее им обнаруживать искусственный контент. Стоит также отметить, что образцы, которые мы использовали в этом исследовании, были созданы с использованием относительно старых алгоритмов».

Хотя у генеративной аудиотехнологии ИИ есть преимущества, такие как большая доступность для тех, чья речь может быть ограничена, или для тех, кто потерял голос из-за болезни, — растут опасения, что подобная технология может быть использована и преступниками, и государствами.

Профессор Льюис Гриффин (UCL Computer Science), старший автор исследования, отметил: «Поскольку технологии генеративного искусственного интеллекта становятся все более изощренными, а многие из этих инструментов находятся в открытом доступе, мы находимся на грани того, чтобы увидеть многочисленные преимущества, а также риски. Было бы разумно, чтобы правительства и организации разработали стратегии борьбы со злоупотреблением таких инструментов, но мы также должны признать позитивные возможности, которые появляются на горизонте».