Как понять, что перед вами дипфейк
Генеративный искусственный интеллект (ИИ) часто представляет собой большие многомодельные «глубокие» нейронные сети, которые были обучены на большом количестве изображений, видео и связанного с ними текста.
Дайте обученной модели описание нужной вам картинки, и она сможет придумать новые картинки и даже фотографии, соответствующие вашему тексту и заявке.
Сегодня генеративный искусственный интеллект, такой как DALL-E 2 или Midjourney, может создавать впечатляющие изображения практически чего угодно, в любом стиле, который вам нравится. Хотите создать фото? Пожалуйста! Может быть, рисуете нового персонажа мультика? Все будет сделано!
Фабрика подделок
Объедините возможности генеративного ИИ с другими системами искусственного интеллекта, которые могут автоматически распознавать людей на изображениях и видео, и вы получите возможности художника по спецэффектам! Вы сможете менять лицо или тело человека практически незаметно. Будет казаться, что это запись реального человека.
Другие технологии позволят создать и воспроизвести голоса — используя все возможности современных систем, вы сможете полностью подделать фотографии и видео и заставить людей на них выглядеть и звучать так, как будто они настоящие. Но все это будет дипфейки.
Характерные признаки дипфейков
Системы генеративного искусственного интеллекта удивительны, но первые итерации этой технологии были подвержены едва заметным, но красноречивым ошибкам. Именно благодаря им вы до сих пор можете отличать реальность от выдумки.
- Обратите внимание на детали: есть ли объекты неправильной формы – такие как рука или ветка – в «неправильном» месте? Присмотритесь к лицу, возможно, вы сможете увидеть несоответствия там, где проглядывает исходное лицо. Распространенным примером этого являются ресницы, выглядывающие из-за волос человека.
- Обратите внимание на реалистичность: совпадают ли цвета, тени и фон? Обратите внимание на вещи, которые могут показаться невозможными или причудливыми, например, на странные руки, ногу, слившуюся с деревом, или даже слишком большое количество рук.
Многие из этих контрольных знаков исчезают по мере совершенствования технологий. И это прискорбный побочный эффект создания более совершенных программ для редактирования фотографий и видео — чем лучше становится программное обеспечение, тем легче любому человеку создавать дезинформацию и дипфейки.
К счастью, многие компании уже задумываются о том, как оградить нас от «виртуальной лжи». Например, компания Adobe, производящая такого рода программное обеспечение, пытается внедрить аутентификацию контента, чтобы в будущем мы могли определять, что реально, а что нет.