Ключевые выводы
- Deep Nostalgia - новая программа, позволяющая оживлять старые фотографии.
- Технология показывает, насколько легко создавать видео людей, делающих то, чего они на самом деле не делали в реальной жизни.
- Технология глубокого подделки уже настолько сложна, что трудно сказать, является ли видео реальным или сгенерированным компьютером, говорит один эксперт.
Остерегайтесь нового программного обеспечения, которое может создавать так называемые «глубокие фейки», в которых могут имитироваться видео реальных людей, предупреждают эксперты.
Deep Nostalgia, выпущенная компанией MyHeritage, набирает популярность в социальных сетях, где пользователи реанимируют всех, от известных композиторов до умерших родственников. Программное обеспечение вызывает неоднозначную реакцию: некоторые люди в восторге от творений, а другие находят их жуткими. Технология показывает, насколько легко создавать видеоролики о том, как люди делают то, чего они на самом деле не делали в реальной жизни.
«Технология дипфейков становится все более изощренной и опасной», - сказал в интервью по электронной почте Аарон Лоусон, заместитель директора Лаборатории речевых технологий и исследований (STAR) SRI International. «Отчасти это связано с природой искусственного интеллекта. В то время как «традиционные» технологии требуют человеческого времени и энергии для улучшения, ИИ может учиться у самого себя.
«Но способность ИИ развиваться - это палка о двух концах», - продолжил Лоусон. «Если ИИ создан, чтобы делать что-то доброжелательное, отлично. Но когда ИИ предназначен для чего-то злонамеренного, такого как дипфейки, опасность беспрецедентна».
Программное обеспечение оживляет фотографии
Генеалогический сайт MyHeritage в прошлом месяце представил анимационный движок. Технология, известная как Deep Nostalgia, позволяет пользователям анимировать фотографии через веб-сайт MyHeritage. Компания D-ID разработала алгоритмы для MyHeritage, которые в цифровом виде воссоздают движения человеческих лиц. Согласно веб-сайту MyHeritage, программное обеспечение применяет движения к фотографиям и изменяет выражение лица, чтобы оно двигалось так, как это обычно делают человеческие лица..
Deep Nostalgia показывает, что технологии дипфейков становятся все более доступными, сказал в интервью по электронной почте Лиор Шамир, профессор компьютерных наук в Университете штата Канзас. Он быстро прогрессирует и устраняет даже тонкие различия между фальшивым и реальным видео и аудио.
«Также был достигнут существенный прогресс в направлении дипфейков в реальном времени, а это означает, что убедительные видео дипфейки генерируются во время видеосвязи», - сказал Шамир.«Например, можно провести встречу в Zoom с одним человеком, но при этом видеть и слышать голос совершенно другого человека».
Существует также растущее число дипфейков на основе языка, сказал Джейсон Корсо, директор Института искусственного интеллекта Стивенса в Технологическом институте Стивенса, в интервью по электронной почте. «Генерировать целые абзацы глубокого поддельного текста для конкретной цели довольно сложно, но современные достижения в глубокой обработке естественного языка делают это возможным», - добавил он.
Как распознать дипфейк
Хотя технология обнаружения глубоких подделок все еще находится в зачаточном состоянии, есть несколько способов обнаружить ее, сказал Корсо, начиная со рта.
«Изменчивость внешнего вида внутренней части рта, когда кто-то говорит, очень высока, что затрудняет убедительную анимацию», - объяснил Корсо. «Это можно сделать, но это сложнее, чем остальная часть головы. Обратите внимание, что видеоролики Deep Nostalgia не демонстрируют способность фотографии говорить «Я люблю тебя» или какую-либо другую фразу во время создания глубокой подделки. Для этого потребуется открывать и закрывать рот, что очень сложно для глубокой генерации фейков».
Ghosting - еще один подарок, - добавил Корсо. Если вы видите размытие по краям головы, это результат «быстрого движения или ограниченного количества пикселей, доступных на исходном изображении. Ухо может на мгновение частично исчезнуть, или волосы могут стать размытыми там, где вы этого не ожидаете», - говорит он. сказал.
Вы также можете обращать внимание на вариации цвета, когда пытаетесь распознать глубокое поддельное видео, например, четкую линию на лице, с более темными цветами с одной стороны и более светлыми с другой.
«Компьютерные алгоритмы часто могут обнаруживать эти модели искажений», - сказал Шамир. «Но алгоритмы дипфейков быстро развиваются. Неизбежно, что потребуются строгие законы для защиты от дипфейков и ущерба, который они могут легко нанести».