Не доверяйте всему, что видите в Интернете, говорят эксперты

Оглавление:

Не доверяйте всему, что видите в Интернете, говорят эксперты
Не доверяйте всему, что видите в Интернете, говорят эксперты
Anonim

Ключевые выводы

  • Новое исследование показывает, что люди не могут отличить изображения, созданные искусственным интеллектом, от реальных.
  • Участники оценили изображения, созданные искусственным интеллектом, как более достоверные.
  • Эксперты считают, что люди должны перестать доверять всему, что они видят в Интернете.
Image
Image

Пословица «увидеть - значит поверить» больше не актуальна, когда дело доходит до Интернета, и эксперты говорят, что в ближайшее время ситуация не изменится.

Недавнее исследование показало, что изображения лиц, созданные искусственным интеллектом (ИИ), были не только очень фотореалистичными, но и казались более добродетельными, чем настоящие лица.

"Наша оценка фотореализма лиц, синтезированных искусственным интеллектом, показывает, что механизмы синтеза прошли через сверхъестественную долину и способны создавать лица, которые неотличимы и заслуживают большего доверия, чем настоящие лица", - заметили исследователи.

Такого человека не существует

Исследователи, доктор Софи Найтингейл из Ланкастерского университета и профессор Хани Фарид из Калифорнийского университета в Беркли, провели эксперименты после того, как признали широко разрекламированные угрозы дипфейков, начиная от всех видов онлайн-мошенничества и заканчивая бодрящими кампании по дезинформации.

«Возможно, самым пагубным является то, что в цифровом мире, где любое изображение или видео можно подделать, подлинность любой неудобной или нежелательной записи может быть поставлена под сомнение», - утверждают исследователи.

Они утверждали, что, несмотря на прогресс в разработке автоматических методов обнаружения дипфейкового контента, существующие методы недостаточно эффективны и точны, чтобы не отставать от постоянного потока нового контента, загружаемого в Интернет. Это означает, что потребители онлайн-контента должны отличать настоящее от подделки, предполагает дуэт.

Jelle Wieringa, защитник осведомленности о безопасности в KnowBe4, согласилась. Он сказал Lifewire по электронной почте, что бороться с настоящими дипфейками крайне сложно без специализированных технологий. «[Смягчающие технологии] могут быть дорогими и сложными для внедрения в процессы реального времени, часто обнаруживая дипфейк только постфактум».

Исходя из этого предположения, исследователи провели серию экспериментов, чтобы определить, могут ли люди-участники отличить современные синтезированные лица от реальных лиц. В своих тестах они обнаружили, что, несмотря на обучение, помогающее распознавать подделки, уровень точности повысился только до 59% по сравнению с 48% без обучения.

Это побудило исследователей проверить, может ли восприятие достоверности помочь людям идентифицировать искусственные изображения. В третьем исследовании они попросили участников оценить достоверность лиц, но обнаружили, что средний рейтинг для искусственных лиц составляет 7. На 7% больше доверия, чем средний рейтинг реальных лиц. Цифра может показаться не такой уж большой, но исследователи утверждают, что она статистически значима.

Глубокие подделки

Глубинные фейки уже вызывали серьезную озабоченность, а теперь это исследование еще больше замутило ситуацию, в которой предполагается, что такие высококачественные фальшивые изображения могут добавить совершенно новое измерение онлайн-мошенничествам, например, помогая создавать больше убедительные поддельные онлайн-профили.

«Единственное, что движет кибербезопасностью, - это доверие людей к технологиям, процессам и людям, которые пытаются обеспечить их безопасность», - поделился Виринга. «Глубокие фейки, особенно когда они становятся фотореалистичными, подрывают это доверие и, следовательно, принятие и принятие кибербезопасности. Это может привести к тому, что люди перестанут доверять всему, что они воспринимают».

Image
Image

Крис Хаук, поборник конфиденциальности потребителей в Pixel Privacy, согласен с этим. В короткой переписке по электронной почте он сказал Lifewire, что фотореалистичные дипфейки могут вызвать «хаос» в сети, особенно в наши дни, когда доступ ко всем типам учетных записей можно получить с помощью технологии фотоидентификации.

Исправление

К счастью, Грег Кун, директор по IoT, Prosegur Security, говорит, что существуют процессы, которые могут избежать такой мошеннической аутентификации. Он сообщил Lifewire по электронной почте, что системы проверки подлинности на основе искусственного интеллекта сопоставляют проверенного человека со списком, но многие из них имеют встроенные средства защиты для проверки «живости».

«Эти типы систем могут требовать и направлять пользователя для выполнения определенных задач, таких как улыбка или поворот головы влево, а затем вправо. Это то, что статически сгенерированные лица не могут выполнять», - поделился Кун.

Исследователи предложили руководство по регулированию их создания и распространения, чтобы защитить публику от синтетических изображений. Для начала они предлагают включить глубоко укоренившиеся водяные знаки в сами сети синтеза изображений и видео, чтобы обеспечить надежную идентификацию всех синтетических носителей..

До тех пор Пол Бишофф, защитник конфиденциальности и редактор исследования информационной безопасности в Comparitech, говорит, что люди предоставлены сами себе.«Людям придется научиться не доверять лицам в Интернете, точно так же, как мы все (надеюсь) научились не доверять отображаемым именам в наших электронных письмах», - сказал Бишофф Lifewire по электронной почте.

Рекомендуемые: