Поддельные голоса и видео: В чем феномен популярности дипфейков?

Относительно недавно в мировое цифровое пространство ворвались дипфейки — это когда с помощью нейросетей подделывают видео, фото и голоса людей, стараясь сделать это максимально реалистично. Цели у авторов «сетевых фальшивок» разные, включая желание посеять панику или убедить в правдивости изначально неверной информации. О том, почему дипфейки стали популярны и как распознать фальшивые снимки или видеокадры, мы поговорили с экспертом редакции сайта Stopfake.kz Татьяной Карамышевой, передает наш сайт.

— Чем опасны дипфейки?

— Если простыми словам, дипфейк (от англ. deep learning «глубинное обучение» и fake «подделка» — прим.)— это когда очень реалистичное фото-, видео- или аудиоматериал генерируют нейросети. К примеру, вы можете увидеть ролик, в котором некая знаменитость признается в том, что ест на завтрак живых котят. При этом качество видео, мимика героя, его голос и окружение не будут вызывать совершенно никаких сомнений в том, что кадры реальны. На самом же деле все это будет сгенерировано нейросетью для того, чтобы опорочить репутацию изображенной знаменитости. В YouTube без особого труда можно найти шуточные дипфейк-видео, на которых лица одних актёров в знаменитых сценах заменяют на лица других, и это выглядит поразительно реально. Все эти примеры относительно безобидны.

Но можно представить, что некие злоумышленники сгенерируют с помощью искусственного интеллекта «говорящую голову» какого-нибудь президента, отдающего сомнительные приказы, и вот тогда последствия могут быть весьма серьёзными. Именно в этом и заключается опасность дипфейков — с их помощью можно быстро и эффективно заставить поверить людей практически во что угодно. Можно повергнуть общественность в панику, внушить им неприязнь к конкретному человеку или целой группе людей и так далее.

— Авторы дипфейков используют различные технологии, чтобы добиться сходства фейка с оригиналом. По каким признакам зритель может определить, что перед ним подделка?

— С развитием нейросетей отличить дипфейк от реального видео становится все сложнее. Иногда подделку может выдать кривая мимика или размытости в местах склейки изображений, например, по контуру лица или тела. Однако эти признаки есть далеко не всегда. Надежнее всего проверить видео или фото при помощи все тех же нейросетей. Сейчас сервисы для проверки видео и фото доступны в онлайн-режиме. Узнать, было ли видео сгенерировано компьютером, можно, например, на портале https://deepfakedetector.ai. Фото проверяет сервис Maybe’s AI Art Detector, который можно найти по ссылке https://huggingface.co/spaces/umm-maybe/AI-image-detector. Также появляются и другие сервисы, позволяющие проверять различный контент. Если задаться этим вопросом и посвятить пару часов своего времени поиску в Сети, можно найти наиболее удобный именно для вас.

— Когда начали появляться первые дипфейки?

— Считается, что самые первые дипфейки появились ещё в 1997 году, когда была создана первая программа, позволяющая редактировать уже существующие видеоролики так, чтобы люди в них произносили слова и фразы, которых не было в оригинале. При этом менялась не только звуковая дорожка, но и мимика лиц. Программа называлась Video Rewrite. Если говорить о современных дипфейках, то они появились в 2014 году, когда были разработаны генеративно-состязательные сети (GAN). В их основе лежит работа сразу двух искусственных интеллектов: один создает подделку, а второй пытается её распознать. Если второму удается обнаружить обман, то первый ИИ моментально адаптируется и совершенствуется так, чтобы второй в конечном счёте не заметил ничего поддельного.

— Где чаще всего сегодня можно столкнуться с дипфейком?

— Нет какого-то конкретного сайта, где вероятность случайно наткнуться на дипфейк выше, чем на других ресурсах. Я бы сказала, что чаще всего дипфейки распространяют сами люди: иногда они понимают, что перед ними созданная на компьютере шутка и просто хотят поделиться ею с друзьями. Иногда действительно верят в изображенное на фейковых кадрах и стремятся предупредить близких. Важно отметить, что обе ситуации равноценно плохи.

Даже если первый человек в этой цепочке пересылаемых сообщений не имеет дурных намерений и прекрасно осознает, что перед ним фейк и шутка, пятнадцатый человек может воспринять увиденное всерьёз. При этом именно поверивший человек станет наиболее активно распространять контент и убеждать окружающих в его правдивости. Причины такого поведения довольно простые: во-первых, далеко не все знают, что контент следует подвергать проверке, прежде чем реагировать на него, во-вторых, не все умеют проверять информацию, в-третьих, согласитесь, поверить в условную авиакатастрофу, произошедшую прямо над городом, гораздо увлекательнее, чем объяснить шокирующие кадры работой нейросетей.

— Как вы считаете, в чем феномен популярности дипфейков?

— Нейросети – это, во-первых, интересно и захватывающе, а во-вторых, в современном мире ещё и легки в использовании. Их можно использовать как развлечение или, к примеру, как инструмент в работе дизайнеров. Думаю, хорошим примером здесь может послужить недавнее появление Midjourney и то, как многие ринулись создавать картинки с помощью этого искусственного интеллекта. Только вот кто-то создавал изображения котиков, а кто-то рисовал сцены ареста известных людей, выдавая их за реальные снимки. То есть нейросети можно применить и в качестве простого способа убедить людей в правдивости той или иной конспирологической теории.

Именно по этой причине можно найти фотографии ледяной стены, окружающей плоскую Землю, исторические снимки великанов, гуляющих по городам, и прочие противоречащие здравому смыслу изображения. Если подытожить, то популярность дипфейков объясняется тем, что создавать их довольно увлекательно и просто, только вот цели у их создателей могут быть совершенно разными.

Медицина

Биткоин лидер гонки

Фото: REUTERS/Dado Ruvic Биткоин взлетел к $97000. Сектор цифровых активов продол ...

  • 21.11.2024

Назначен новый аким Аксу

Сегодня глава региона Асаин Байханов на заседании актива Аксу представил нового акима города, перед ...

  • 21.11.2024

Несколько машин столкнулись в Астане

Крупное ДТП произошло на проспекте Республики, сообщает Kazpravda.kz Сотрудники полиции и медики ...

  • 21.11.2024

Почему лидер сборной Казахстана разозлил наставника "Металлурга"

20 ноября столичный коллектив "Барыс" в рамках игр КХЛ дома сумел переиграть действующего чемпиона К ...

  • 21.11.2024