Ключевые выводы
- Недавнее исследование показало, что многие контакты в LinkedIn не являются реальными людьми.
- Это часть растущей проблемы дипфейков, когда человек на существующем изображении или видео заменяется изображением, измененным компьютером.
-
Эксперты рекомендуют проявлять осторожность, нажимая на URL-адреса или отвечая на сообщения LinkedIn.
Подумайте дважды, прежде чем связываться с этим дружелюбным лицом в Интернете.
Исследователи говорят, что многие контакты на популярном сайте LinkedIn не являются реальными людьми. Это часть растущей проблемы дипфейков, когда человек на существующем изображении или видео заменяется изображением, измененным компьютером.
«Глубокие подделки важны тем, что они эффективно устраняют то, что традиционно считалось надежным методом подтверждения личности», - сказал Тим Каллан, директор по соблюдению требований фирмы Sectigo по кибербезопасности в интервью Lifewire по электронной почте. «Если вы не можете поверить голосовому или видеосообщению от вашего доверенного коллеги, значит, защитить целостность процесса стало намного сложнее».
Ссылка на кого?
Расследование контактов LinkedIn началось, когда Рене ДиРеста, исследователь Стэнфордской интернет-обсерватории, получила сообщение от профиля, указанного как Кинан Рэмси.
Записка казалась обычной, но ДиРеста заметил некоторые странности в профиле Кинана. Во-первых, на изображении была изображена женщина только с одной серьгой, идеально расположенными глазами и размытыми прядями волос, которые, казалось, исчезали и снова появлялись.
В Твиттере ДиРеста написал: «Эта случайная учетная запись отправила мне сообщение… Лицо выглядело сгенерированным ИИ, поэтому моей первой мыслью был целевой фишинг; он отправил ссылку «нажмите здесь, чтобы назначить встречу». Я задавался вопросом, не притворялся ли он, что работает на компанию, которую он якобы представляет, поскольку LinkedIn не сообщает компаниям, когда новые учетные записи утверждают, что они где-то работают… Но затем я получил сообщение от другого фейка, за которым последовало сообщение от явно настоящего сотрудник сослался на предыдущее сообщение от первого поддельного человека, и оно превратилось во что-то совершенно другое."
ДиРеста и ее коллега Джош Гольдштейн начали исследование, в ходе которого было обнаружено более 1000 профилей LinkedIn с лицами, которые, по-видимому, были созданы искусственным интеллектом.
Deep Fakers
Deep fakes - растущая проблема. Согласно одному опубликованному отчету, к декабрю 2020 года было обнаружено более 85 000 видео с дипфейками.
В последнее время дипфейки использовались для развлечения и демонстрации технологии, включая один пример, в котором бывший президент Барак Обама говорил о фейковых новостях и дипфейках.
«Хотя это было здорово для развлечения, с достаточной вычислительной мощностью и приложениями вы могли бы создать что-то такое, что [ни] компьютеры, ни человеческое ухо не смогут отличить», - Энди Роджерс, старший оценщик компании Schellman, глобальной оценщик кибербезопасности, говорится в электронном письме.«Эти дипфейковые видео могут быть использованы для любого количества приложений. Например, известные люди и знаменитости в социальных сетях, таких как LinkedIn и Facebook, могут делать заявления, влияющие на рынок, и другой чрезвычайно убедительный контент».
Хакеры, в частности, обращаются к дипфейкам, потому что и технология, и ее потенциальные жертвы становятся все более изощренными.
«Совершить атаку методом социальной инженерии с помощью входящей электронной почты намного сложнее, особенно в связи с тем, что жертвы все больше узнают об угрозе целевого фишинга», - сказал Каллан..
Платформы должны бороться с дипфейками, сказал Джозеф Карсон, главный специалист по безопасности в фирме по кибербезопасности Delinea, Lifewire по электронной почте. Он предложил, чтобы загрузки на сайты проходили аналитику для определения подлинности контента.
Если в публикации не указан какой-либо доверенный источник или контекст, то правильная маркировка контента должна быть ясной для зрителя, что источник контента был проверен, все еще анализируется или что контент был значительно изменен», - добавил Карсон.
Глубинные фейки важны тем, что они эффективно устраняют то, что традиционно считалось надежным методом подтверждения личности.
Эксперты рекомендуют пользователям проявлять осторожность, нажимая на URL-адреса или отвечая на сообщения LinkedIn. Имейте в виду, что голос и даже движущиеся изображения предполагаемых коллег могут быть подделаны, предположил Каллан. Подойдите к этому взаимодействию с тем же уровнем скептицизма, что и к текстовому общению.
Однако, если вы беспокоитесь о том, что ваша личность может быть использована в дипфейке, Каллан сказал, что нет простого решения.
«Лучшие средства защиты должны быть созданы теми, кто разрабатывает и эксплуатирует используемые вами цифровые коммуникационные платформы», - добавил Каллан. «Система, которая подтверждает [личности] участников с помощью невзламываемых криптографических методов, может очень эффективно снизить риск такого рода».