Ключевые выводы
- По мере того как делать дипфейки становится все легче, приоритетом становятся новые и улучшенные способы их обнаружения.
- Технология обнаружения дипфейков Facebook использует обратное машинное обучение, чтобы определить, является ли видео дипфейком или нет.
- Эксперты говорят, что использование технологии блокчейна было бы лучшим способом узнать, настоящее видео или нет, поскольку этот метод основан на контекстуальных данных.
Facebook уверен в своей модели машинного обучения для борьбы с дипфейками, но эксперты говорят, что машинное обучение само по себе не спасет нас от обмана дипфейками.
Такие компании, как Facebook, Microsoft и Google, работают над борьбой с распространением дипфейков в Интернете и социальных сетях. Хотя методы различаются, есть один потенциально надежный способ обнаружить эти ложные видео: блокчейны.
«[Блокчейны] просто дают вам большой потенциал для проверки дипфейка таким образом, что это лучшая форма проверки, которую я вижу», - Стивен Вольфрам, основатель и генеральный директор Wolfram Research и автор книги «Новый вид Science», - рассказали Lifewire по телефону.
Технология Facebook для обнаружения дипфейков
Технология Deepfake быстро росла за последние несколько лет. В вводящих в заблуждение видеороликах используются методы машинного обучения, чтобы делать такие вещи, как наложение чьего-то лица на тело другого человека, изменение фоновых условий, фальшивая синхронизация губ и многое другое. Они варьируются от безобидных пародий до того, что знаменитости или общественные деятели говорят или делают то, чего они не делали.
Эксперты говорят, что технология развивается быстро, и что дипфейки будут становиться все убедительнее (и проще в создании) по мере того, как технология станет более доступной и инновационной.
Facebook недавно рассказал о своей технологии обнаружения дипфейков в сотрудничестве с Университетом штата Мичиган. Социальная сеть утверждает, что использует реверс-инжиниринг от одного изображения, сгенерированного искусственным интеллектом, до генеративной модели, используемой для его создания.
Ученые-исследователи, работавшие с Facebook, сказали, что метод основан на выявлении уникальных закономерностей, лежащих в основе модели ИИ, используемой для создания дипфейков.
«Обобщая атрибуцию изображения на открытое распознавание, мы можем вывести больше информации о генеративной модели, используемой для создания дипфейка, которая выходит за рамки признания того, что ее раньше не видели. И, отслеживая сходство между шаблонами коллекции дипфейков, мы также могли бы сказать, произошла ли серия изображений из одного источника», - написали ученые-исследователи Си Инь и Тан Хасснер в блоге Facebook о своем методе обнаружения дипфейков.
Вольфрам говорит, что имеет смысл использовать машинное обучение, чтобы обнаружить продвинутую модель ИИ (дипфейк). Однако всегда есть возможность обмануть технологию.
«Я совсем не удивлен, что существует достойный способ машинного обучения для [обнаружения дипфейков]», - сказал Вольфрам. «Единственный вопрос в том, что если вы приложите достаточно усилий, сможете ли вы его обмануть? Я уверен, что ты сможешь».
Другой способ борьбы с дипфейками
Вместо этого Вольфрам сказал, что, по его мнению, использование блокчейна будет лучшим вариантом для точного определения определенных типов дипфейков. Его мнение об использовании блокчейна вместо машинного обучения восходит к 2019 году, и он сказал, что, в конечном счете, подход блокчейна может обеспечить более точное решение нашей проблемы с дипфейками.
«Я ожидаю, что зрители изображений и видео смогут регулярно проверять блокчейны (и «вычисления триангуляции данных») примерно так же, как веб-браузеры сейчас проверяют сертификаты безопасности», - написал Вольфрам в статье, опубликованной в Scientific American.
Поскольку блокчейны хранят данные в блоках, которые затем объединяются в цепочку в хронологическом порядке, а поскольку децентрализованные блокчейны неизменны, введенные данные необратимы.
Единственный вопрос, если вы приложите достаточно усилий, сможете ли вы его обмануть? Я уверен, что вы можете.
Вольфрам объяснил, что, поместив видео в блокчейн, вы сможете увидеть время, когда оно было снято, место и другую контекстную информацию, которая позволит вам определить, было ли оно каким-либо образом изменено.
«В целом, чем больше метаданных, которые контекстуализируют изображение или видео, тем больше вероятность, что вы сможете сказать», - сказал он. «Вы не можете подделать время на блокчейне».
Однако Вольфрам сказал, что используемый метод - будь то машинное обучение или использование блокчейна - зависит от типа дипфейка, от которого вы пытаетесь защититься (например, видео, где Ким Кардашьян говорит что-то глупое, или видео, где политик делает заявление или предложение).
«Подход на базе блокчейна защищает от определенных видов дипфейков, точно так же, как обработка изображений с помощью машинного обучения защищает от определенных видов дипфейков», - сказал он.
Суть, кажется, заключается в бдительности для всех нас, когда дело доходит до борьбы с грядущим потоком дипфейков.