Способность Alexa имитировать мертвых родственников может быть самой жуткой вещью в мире

Оглавление:

Способность Alexa имитировать мертвых родственников может быть самой жуткой вещью в мире
Способность Alexa имитировать мертвых родственников может быть самой жуткой вещью в мире
Anonim

Ключевые выводы

  • Голосовой помощник Alexa от Amazon может скопировать голос всего за одну минуту звука.
  • Вы можете попросить Алексу прочитать рассказ голосом умершего родителя.
  • Идея та же, что и у дипфейков, только используется во благо.
Image
Image

Последняя уловка Amazon Alexa состоит в том, чтобы научиться имитировать голос умершего близкого человека, чтобы он мог говорить с вами из могилы.

Alexa требуется всего минута разговорного аудио, чтобы убедительно имитировать голос. Amazon позиционирует это как утешительную функцию, которая может помочь вам связаться с близкими, но это также может быть довольно жутким опытом. И это показывает, как легко сделать глубокий фальшивый звук, который достаточно хорош, чтобы обмануть нас, даже если голос тот, который мы очень хорошо знаем.

«Amazon определенно вошел в довольно уникальную и причудливую территорию, объявив, что Alexa скоро сможет научиться, а затем использовать голос умерших родственников», - сказал Билл Манн, эксперт по конфиденциальности в Restore Privacy. Lifewire по электронной почте. «Для некоторых людей это совсем не жутко. На самом деле, это может быть довольно трогательно».

Призрак в машине

В рамках ежегодной конференции re:MARS Amazon демонстрирует эту функцию в коротком видео. В нем ребенок спрашивает Алексу, может ли бабушка продолжать читать ему «Волшебника страны Оз», любимое произведение каждого ребенка, являющееся общественным достоянием. И это довольно трогательный момент. Трудно не чувствовать человеческие эмоции, когда бабушка начинает читать.

"Люди борются со смертностью, особенно в западной культуре. На протяжении веков мы пытались найти способы увековечить память умерших, от посмертных масок до прядей волос, старых фотографий и просмотра старых фильмов", - Эндрю Селепак., профессор социальных сетей в Университете Флориды, сказал Lifewire по электронной почте. «Дипфейки используют новейшие технологии для создания новой посмертной маски умершего любимого человека. Но, в зависимости от точки зрения, это жутко или способ увековечить память и удержать кого-то, кого вы любите после его смерти?»

Но memento mori может быть одновременно утешительным и жутким. Друг члена семьи мертв, но вы все еще можете слышать, как они разговаривают. Не помогает и то, что Алекса имеет историю странного, а иногда и ужасающего поведения. В 2018 году, когда обозреватель NYT Фархад Манджу ложился спать, его Amazon Echo «завыл, как ребенок, кричащий во сне из фильма ужасов».

Вскоре после этого Amazon признал, что Алекса иногда громко смеялась, что, наряду с подростками и подвалами, является фильмом ужасов 101.

Можно только задаться вопросом, как бы вы себя чувствовали, если бы Алекса проделала те же трюки с голосом бабушки.

Глубокий фейк

Кажущаяся легкость, с которой Alexa учится имитировать голос, приводит нас к более гнусным способам использования клонирования голоса: глубоким подделкам.

Image
Image

"Deepfake audio не новинка, даже если она малопонятна и малоизвестна. Эта технология была доступна в течение многих лет для воссоздания голоса человека с помощью искусственного интеллекта и глубокого обучения с использованием относительно небольшого количества фактического звука от человека", говорит Селепак. «Такая технология также может быть опасной и разрушительной. Встревоженный человек может воссоздать голос мертвого бывшего парня или девушки и использовать новый звук, чтобы говорить ненавистные и обидные вещи».

Это только в контексте Alexa. Глубокий поддельный звук может выйти далеко за рамки этого, убеждая людей, например, в том, что видные политики верят в то, во что они не верят. Но, с другой стороны, чем больше мы привыкаем к этим глубоким подделкам - возможно, в форме голосов Alexa - тем больше мы будем скептически относиться к более гнусным подделкам. Опять же, учитывая, как легко распространять ложь на Facebook, возможно, нет.

Amazon не сообщил, появится ли эта функция в Alexa или это просто демонстрация технологии. Я надеюсь, что это так. Технологии лучше всего проявляют себя, когда они используются в такой гуманистической манере, и, хотя проще всего назвать их жуткими, как говорит Селепак, на самом деле они не так уж сильно отличаются от просмотра старых видео или прослушивания сохраненных голосовых сообщений. как персонаж телешоу с ленивым сценарием.

И если технология для дипфейков легкодоступна, почему бы не использовать ее, чтобы утешить себя?

Рекомендуемые: