В начале 2025 года в Instagram (принадлежит организации Meta, запрещенной в РФ) развернулась вирусная рекламная кампания. Одна из самых уважаемых в США женщин-инвесторов Эбби Джозеф Коэн и главный стратег Goldman Sachs по американским бумагам Дэвид Костин приглашали желающих быстро разбогатеть в группу WhatsApp (принадлежит организации Meta, запрещенной в РФ) для покупки перспективных, по их словам, акций. Сколько человек последовали призыву до того, как стало понятно, что это дипфейк со сгенерированным изображением Коэн и Костина, неизвестно. Зато очевидно, что человечество оказалось на пороге эпохи, где главным девизом становится «не верь глазам своим»: за какие-то пару лет дипфейки из увлечения узкого круга ИИ-энтузиастов превратились в инструмент, оказывающий большое влияние на финансы, бизнес, политические процессы, медиа и судебную систему.
2017 году пользователь соцсети Reddit с ником deepfakes выложил серию видео, в которых лица порноактрис были при помощи ИИ заменены на лица голливудских звезд. Ролики набрали огромное число просмотров, а словом DeepFake (от английских слов Deep – «глубокий» и Fake – «обман») стали обозначать технологию создания цифрового контента, который с высокой реалистичностью имитирует реальных людей или объекты.
Первое время для создания такого контента требовались продвинутые навыки программирования и серьезные вычислительные мощности. Однако со временем технология стала проще и дешевле. Сегодня создать реалистичный дипфейк способен любой человек с базовыми компьютерными навыками. «Технология обрела популярность благодаря развитию современных нейросетей (Stable Diffusion, MidJourney, DeepFaceLab), которые позволяют создавать дипфейки даже неспециалистам. Соцсети и мессенджеры ускоряют распространение фейков», – отмечает в беседе с WEALTH Navigator коммерческий директор Cesca Татьяна Михайличенко.

Качество дипфейков также непрерывно растет. «Уже сейчас больше половины людей не могут отличить реальные видео от дипфейка, – уверяет WEALTH Navigator технический директор MD Audit (ГК Softline) Юрий Тюрин. – Совсем скоро сгенерированные видео будут неотличимы от оригинальных».
Новые модели, по оценке инженера-аналитика лаборатории исследований кибербезопасности компании «Газинформсервис» Ирины Дмитриевой, могут синхронизировать речь и мимические или физиологические особенности лица человека, имитировать манеру разговора, интонации и тембр голоса. «Сервисы Synthesia и OpenVoice позволяют создавать реалистичные аудио- и видеодипфейки. Платформа DeepFaceLive дает инструменты для подмены видеоизображения в режиме реального времени: можно менять лицо человека прямо в процессе видеотрансляции. Компания OpenAI развивает сервис Sora, в котором создавать дипфейк-персонажи можно через текстовые описания. ИИ-артефакты вроде неестественных морганий, лишних пальцев на руках или размытых границ, по которым раньше можно было отличить дипфейки от реальных людей, уже устранены в новых продвинутых моделях», – говорит Дмитриева в интервью WEALTH Navigator.
С этим согласна и Татьяна Михайличенко из Cesca. По ее словам, в 2024 году дипфейк Илона Маска для продвижения криптовалюты практически не отличался от живого прототипа.
С момента появления дипфейков ими стали активно пользоваться мошенники всех мастей. Распространенный сюжет: человек получает видео или аудиосообщение от «знакомого» с просьбой под разными предлогами выслать деньги. «”Кража личности” теперь не сюжет блокбастера, а реальность. Голосовые подделки научились имитировать интонации и тембр человека с точностью до оттенков», – рассказывает WEALTH Navigator руководитель направления кибербезопасности RTM Group Артем Бруданин.
По данным Международной ассоциации по фактчекингу Global Fact-Checking Network, за 5,5 месяца 2025 года было обнаружено на 13% больше дипфейков, чем за весь 2024 год, и в 3,9 раза больше, чем за 2023 год. Специалисты MTS AI не исключают, что в 2025 году в России каждый второй житель страны может столкнуться с подобными атаками.
Растут и объемы использования дипфейков в индустрии 18+, где сотни тысяч роликов и фото размещаются без согласия изображенных на них людей. По словам Артема Бруданина, это новый популярный рыночный товар, наносящий серьезный моральный и репутационный вред.
Корпоративный сегмент тоже страдает от дипфейков. Злоумышленники создают аудио- и видеоклоны, чтобы обманывать бизнесменов, говорит аналитик «СерчИнформ» Максим Мостовой. По данным Deloitte, мошенники использовали дипфейки для атаки на 15% опрошенных организаций в 2024 году, главным образом для получения доступа к их финансовой информации.
Руководитель департамента специальных сервисов Infosecurity (ГК Softline) Константин Мельников отмечает новый тренд: злоумышленники разворачивают вектор атаки с публичных и корпоративных ресурсов на топ-менеджеров компаний, инвесторов, акционеров и собственников бизнесов. «Это происходит из-за обилия персонализированных сведений в открытом доступе и низкой цифровой грамотности. Тренд только в начале своего развития, но компании и специалисты уже расширяют зону профессиональной деятельности ИБ, фокусируясь на защите не только юрлиц, но и физических лиц», – говорит Мельников в беседе с WEALTH Navigator.
Дипфейки – инструмент для вмешательства и в политические процессы. По словам Артема Бруданина, эта технология дает возможность заниматься политическими манипуляциями, раскачивать общественное мнение и провоцировать конфликтные ситуации. Юрий Тюрин из MD Audit привел в пример последние президентские выборы в США, перед которыми использовались дипфейк-ролики, выставляющие обоих кандидатов в неприглядном свете.
Судебная система тоже столкнулась с «темной стороной» дипфейков: их все чаще используют для фабрикации улик для суда. «В нашей практике был случай, когда человек принес поддельное голосовое сообщение в качестве доказательства, – рассказал Артем Бруданин. – Аудиозапись была проанализирована специализированным программным обеспечением (фазовые артефакты, спектрограмма, амплитудные выбросы, форманты и т. п.). Выяснилось, что она сгенерирована нейросетью на основе, скорее всего, ряда голосовых сообщений от настоящего пользователя».
Однако дипфейки – оружие не только мошенников и манипуляторов. Синтезированная реальность может стать шагом к прогрессу в целом ряде отраслей. Активно пользуются дипфейками киноиндустрия, рекламный бизнес, цифровое искусство. «Компания Weta Digital помогла продолжить съемки франшизы «Форсаж‑7» и воплотила CGI-версию (Computer Generated Imagery, изображения, сгенерированные с помощью компьютера. – Прим. ред.) погибшего в автокатастрофе Пола Уокера. Это была зачаточная фаза дипфейк-технологий, примененная десятилетие назад», – напоминает Ирина Дмитриева из «Газинформсервис». Сейчас тенденция «воскрешения» легендарных актеров и исполнителей песен продолжается. Дипфейки также удешевляют дубляж фильмов, обеспечивая перевод с естественной артикуляцией на лицах актеров в кадре.

Юрий Тюрин, технический директор MD Audit, считает перспективным использование дипфейков в образовании: «Любопытный проект, Digital Einstein, реализован в Университете Калифорнии. Виртуальный Эйнштейн объясняет свою теорию относительности. Такие лекции воспринимаются намного интереснее, чем когда их читает простой преподаватель».
По словам Ирины Дмитриевой, дипфейки могут быть полезны и в медицине. Так, люди, потерявшие голос, могут вновь обрести его через синтез речи.
Дипфейки становятся серьезной угрозой для финансовых рынков. Например, в исследовании Bentley University «Дипфейки и их влияние на торговые сигналы» (The DeepFake and its Impact on Trading Signals) говорится об опасности манипулирования рыночными настроениями посредством дипфейков. Сгенерированное дипфейковое видео якобы от лица директора компании, где он говорит о корпоративном скандале и мошенничествах в учете, может спровоцировать резкое снижение цены акций и их распродажу на биржах. Даже если компания оперативно выпустит опровержение, инвесторы могут потерять значительные суммы. Еще более масштабный ущерб может быть нанесен дипфейками с изображением глав центробанков, заявляющих о скором изменении ключевой ставки. В итоге инвесторы могут утратить доверие к традиционным источникам информации, предупреждают исследователи.
«Дипфейки – новый язык коммуникации. Технология однозначно требует пересмотра нормативных правил и этичности применения», – уверена Ирина Дмитриева. Например, использование дипфейков выгодно кинокомпаниям, ведь количество оплачиваемых смен актера сокращается до минимума. Достаточно записать основные эмоции, а затем передать их ИИ, поясняет в интервью WEALTH Navigator эксперт по сетевым угрозам, веб-разработчик компании «Код Безопасности» Константин Горбунов. Однако это резко снижает доход актеров. Именно из-за этого в 2023 году прошли масштабные забастовки участников Гильдии киноактеров в США.
Отдаленные последствия для отраслей, где активно применяются дипфейки, довольно трудно просчитать. Например, Ирина Дмитриева считает, что киноиндустрия может потерять интерес зрителей, если фильмы будут генерировать с помощью нейросетей. Также есть риск обесценивания классического авторского искусства, когда машинные алгоритмы копируют стиль художников без их согласия.
Вызывают опасения и растущие объемы кибермошенничества с использованием дипфейков. В последние два года интерес к дипфейкам перешел из узкотехнологической плоскости в глобальную проблему безопасности – как для бизнеса, так и для частных лиц, считает Татьяна Михайличенко.

«Регуляторы в большинстве стран пытаются включить новую технологию в правовое поле. Практически во всех юрисдикциях, включая Россию, для легального применения дипфейк-образов реально существующих людей требуется согласие субъекта, а также прозрачность обработки информации», – говорит Ирина Дмитриева. Так, в США, по словам эксперта, суды могут запретить коммерческое применение дипфейков умерших знаменитостей, если наследники не давали разрешения на это.
Однако в России пока нет специальных норм, которые регулировали бы правовой статус дипфейк-технологий, порядок и пределы их использования, а также ответственность в случае нарушений. «Юридическая практика по дипфейкам у нас только начинает складываться, и суды пока идут путем применения уже существующих правовых норм», – делится наблюдениями с WEALTH Navigator партнер юридической фирмы INTELLECT, руководитель практики «Финтех, блокчейн, цифровые активы» Мария Болобонова.
Показательным стал недавний судебный спор между компаниями «Рефейс Технолоджис» (ей принадлежат исключительные права на короткий рекламный видеоролик, созданный с применением дипфейк-технологий) и «Бизнес-Аналитика» (она разместила этот видеоролик на своем сайте для рекламы собственных услуг без согласия правообладателя). Представители «Бизнес-Аналитики» указали, что ролик, созданный при помощи технологии дипфейк, якобы не может быть объектом авторского права, так как творческий вклад человека здесь минимален. Но суд постановил, что дипфейк – это лишь технический инструмент обработки контента, а не самостоятельная технология создания авторского произведения, и обязал «Бизнес-Аналитику» выплатить 500 тыс. рублей компенсации.
«Дело важно тем, что впервые в России суд прямо выразил свою позицию относительно правовой защиты объектов, созданных с использованием дипфейк-технологий, – считает Мария Болобонова. – Суд подчеркнул, что и в цифровую эпоху принципы авторского права остаются незыблемыми и появление новых технологий не должно подрывать защиту труда автора».
В борьбу с дипфейками включились и технологические компании. Они создают ИИ-детекторы, способные распознавать дипфейки. В России, по словам гендиректора Phishman Алексея Горелкина, такая работа началась еще в 2021 году, когда стартовала разработка программы «Зеркало (Верблюд)» для выявления дипфейков.
Аналитики Deloitte прогнозируют, что сегмент выявления дипфейков может пойти по тому же пути, что и рынок кибербезопасности, который предлагает различные решения для защиты от киберугроз. По прогнозу Deloitte, объемы этого рынка будут расти на 42% в год – с 5,5 млрд долларов в 2023 году до 15,7 млрд долларов в 2026‑м.
Константин Горбунов из компании «Код Безопасности» прогнозирует: постепенно будет внедряться маркировка ИИ-контента, например, с помощью цифровых «водяных знаков», чтобы люди могли отличать дипфейки от настоящих фото или видео. По мнению Ирины Дмитриевой, практику маркировки ИИ-контента нужно ввести на законодательном уровне. За ее отсутствие нужна ответственность вплоть до уголовной, полагает собеседница WEALTH Navigator.
Несмотря на то что на рынке уже есть специальные решения для распознавания дипфейков, стопроцентной гарантии, как любая другая технология, они не дают, отмечает руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин. «Дипфейк-модели постоянно обучаются, со временем распознавать их становится все труднее. Поэтому важно повышать цифровую грамотность пользователей, развивать критическое мышление», – рекомендует Аникин в интервью WEALTH Navigator. Необходимо соблюдать основные рекомендации по цифровой безопасности: не переходить по ссылкам и не скачивать файлы из сомнительных переписок, перепроверять, действительно ли человек на аудиозаписи, видео или фото тот, за кого себя выдает; критически относиться к любым сообщениям в Сети и использовать надежные защитные решения, которые не дадут перейти на фишинговую или скам-страницу, уведомят о звонке от потенциального мошенника и блокируют установку на устройстве вредоносного ПО.
Артем Бруданин отмечает, что для борьбы с дипфейками распространенные средства защиты малоэффективны: человек – самое слабое звено в системе обеспечения безопасности. По мнению Алексея Горелкина из Phishman, всем нам пора признать, что «мир изменился и будущее уже наступило, к сожалению, не самое светлое». «Необходимо заниматься факт-чекингом, воспитывать недоверие к источникам, особенно если они вызывают бурные эмоции или побуждают к каким-то действиям», – рекомендует эксперт.
Максим Мостовой советует обратить внимание на качество аудио и видео: «Внешность и голос могут быть обманчивы, но пока что далеко не идеальны. Поэтому мошенники используют короткие дипфейки и давят на срочность». Распознать клона помогут искажения фона вокруг силуэта, а также мимика: она может не совпадать с речью или у говорящего будет слишком активная артикуляция, объясняет Константин Горбунов. «Известен случай, когда соискатель проходил онлайн-собеседование с помощью дипфейк-технологии, – рассказал Константин Горбунов. – Выявить это удалось после просьбы интервьюера показать лицо с разных ракурсов, а также провести перед ним рукой».

В числе мер защиты от дипфейков Константин Мельников рекомендует контролировать распространение информации о себе: «Для атаки злоумышленникам достаточно получить образцы биометрических данных (изображение и голос). Это может стать проблемой не только для медийных личностей, но и для тех, кто активно использует социальные сети». Татьяна Мельниченко также советует минимизировать публикацию голосовых сообщений и видео: их могут использовать для создания дипфейка.
Алексей Горелкин напоминает, что один из самых надежных способов проверки – это кодовые слово или ситуация: «Спросите собеседника: когда мы виделись в последний раз? Это моментально раскроет обман».
Будущее дипфейков, по мнению Максима Мостового, зависит от того, насколько легко их будет создавать. «Если «порог входа» в ИИ снизится, например, появится программа, которая позволит быстро и бюджетно создавать качественные копии голоса или внешности в моменте, то это сильно расширит возможности преступников. А значит, потребуются усиленные меры противодействия мошенничествам с использованием ИИ и дипфейков». Ирина Дмитриева прогнозирует, что в ближайшие 5 лет дипфейки достигнут уровня неповторимого реализма: даже эксперты не смогут отличить сгенерированный контент от оригинала. Но в то же время появятся и детекторы с высокой точностью распознавания генераций. Кроме того, по мнению эксперта, скоро пользователи интернета перестанут доверять видео- и аудиоконтенту без цифровых подписей.
Самые известные случаи использования дипфейков
- Британская инжиниринговая компания Arup потеряла 25,6 млн долларов в результате мошенничества с использованием дипфейков. Сотрудник финансового департамента филиала Arup в Гонконге получил фишинговое письмо с требованием совершить «секретную транзакцию». Он понял, что письмо поддельное, но злоумышленники смогли переубедить жертву во время видеоконференции: используя дипфейк-технологию, они выдавали себя за коллег из головного офиса. Только после этого сотрудник филиала перевел деньги. Это один из немногих случаев, когда мошенники использовали дипфейки разных людей во время группового созвона – обычно они предпочитают общаться с жертвой один на один.
- 53-летняя француженка была настолько очарована дипфейком Брэда Питта, что решила бросить мужа-миллионера и семилетнюю дочь. Фейковый Брэд Питт жаловался, что все его счета заблокированы из-за развода с Анджелиной Джоли, а ему срочно нужны деньги для лечения рака почки. Женщина успела переслать мошенникам 830 тыс. евро, прежде чем обман вскрылся.
- После того как Дональд Трамп победил на последних выборах президента США, в Сети начали появляться многочисленные дипфейки на основе его образа. Фейковый «Трамп» призывал вкладываться в криптовалюту и давал ссылку на мошеннические крипторесурсы. Помимо Трампа в такой рекламе использовались дипфейки Илона Маска и Такера Карлсона.
- На съемках фильма «Индиана Джонс и колесо судьбы» 79-летнего Харрисона Форда «омолодили» на 35 лет при помощи дипфейка. Для этого использовали кадры с Фордом из предыдущих частей «Индианы Джонса», где актер был моложе. В итоге в фильм был включен довольно продолжительный (25 минут) эпизод с участием «молодого» Индианы.
- Один из самых известных примеров использования дипфейков в российской рекламе – видеоролики «МегаФона» с дипфейком Брюса Уиллиса. Для создания ролика нейросеть обработала 34 тыс. изображений Брюса Уиллиса из фильмов с его участием. В съемках участвовал актер Константин Соловьев, на его лицо впоследствии наложили образ Брюса Уиллиса. Позже по такому же пути пошел Сбер: компания сняла ролик, в котором главным героем стал Жорж Милославский, герой Леонида Куравлева в фильме «Иван Васильевич меняет профессию». Для создания внешности и речи Милославского нейросеть использовала отрывки из фильмов с участием Леонида Куравлева.