Создана защита от дипфейков
Относительно новая технология дипфейков позволяет с помощью нейронной сети симулировать движения и речь людей, взяв за основу их изображения на фотографиях или видеозаписях. Понимая, что распространение этой технологии способно привести к серьезным последствиям, причем практически для любого человека, американские ученые разработали алгоритм, защищающий выкладываемые в сеть изображения от использования в качестве основы дипфейков.
Алогритм покрывает фото или видео невидимым фильтром, и когда злоумышленник пытается использовать нейронную сеть для манипуляций с этими медиафайлами, то они либо остаются неизменными, либо полностью искажаются — встроенный фильтр отображает пиксели таким образом, что изображение становится неузнаваемым и непригодным для изготовления дипфейков.
По словам Натаниэла Руиза, руководителя группы разработчиков, идея создания алгоритма возникла у него после того, как он заинтересовался быстрым распространением технологии дипфейков и поговорил со своим научным руководителем о возможных последствиях ее использования злоумышленниками.