Как искусственный интеллект вскоре может помочь хакерам украсть вашу информацию

Оглавление:

Как искусственный интеллект вскоре может помочь хакерам украсть вашу информацию
Как искусственный интеллект вскоре может помочь хакерам украсть вашу информацию
Anonim

Ключевые выводы

  • Эксперты говорят, что кибератаки с помощью ИИ могут взломать ваши данные.
  • Известный эксперт по кибербезопасности Брюс Шнайер заявил на недавней конференции, что его все больше беспокоит проникновение ИИ в компьютерные системы.
  • В 2018 году против TaskRabbit была запущена одна кибератака с использованием искусственного интеллекта, в результате которой были скомпрометированы 3,75 миллиона пользователей.
Image
Image

Скоро хакеры смогут проникнуть в ваш компьютер с помощью искусственного интеллекта.

Известный эксперт по кибербезопасности Брюс Шнайер недавно заявил на конференции, что он обеспокоен неизбежностью проникновения ИИ в компьютерные системы. Эксперты говорят, что атаки ИИ представляют собой растущую угрозу.

«Поскольку ИИ становится все более полезным с точки зрения взлома, данные пользователей и потребителей могут подвергаться значительно большему риску», - сказал Эндрю Дуглас, эксперт по кибербезопасности Deloitte Risk & Financial Advisory, в интервью по электронной почте. «Хакеры обычно ищут самую легкую цель с наименьшими усилиями, и искусственный интеллект позволит им атаковать больше людей с лучшей защитой за меньшее время».

Шнайер был последним, кто предупредил об опасностях ИИ. «Любая хорошая система искусственного интеллекта, естественно, найдет взлом», - как сообщается, сказал Шнайер на недавней конференции. «Они находят новые решения, потому что им не хватает человеческого контекста, и следствием этого является то, что некоторые из этих решений ломают ожидания людей - отсюда и взлом».

Телефоны с искусственным интеллектом в вашем доме

Хакеры уже используют ИИ для проникновения в компьютеры. В 2018 году против TaskRabbit была запущена одна кибератака с использованием ИИ, в результате которой были скомпрометированы 3.75 миллионов пользователей, но их невозможно отследить, сказал Крис Хаук, защитник конфиденциальности потребителей на веб-сайте Pixel Privacy, в интервью по электронной почте.

«Атака была запущена хакерами, использующими большой ботнет, контролируемый ИИ, который использовал подчиненные машины для проведения массированной DDoS-атаки на серверы TaskRabbit», - добавил он.

Алгоритмы машинного обучения использовались для успешного проникновения в системы в Defcon еще в 2016 году, отметил Рэй Уолш, эксперт по конфиденциальности данных в ProPrivacy, в интервью по электронной почте. В то время семь команд соревновались в Grand Challenge DARPA, чтобы выиграть приз в размере 2 миллионов долларов. «Во время соревнования конкуренты использовали ИИ для поиска уязвимостей, создания эксплойтов и развертывания исправлений с помощью автоматизированных средств», - добавил он..

Брюс Янг, профессор кибербезопасности Гаррисбергского университета науки и технологий, сказал в интервью по электронной почте, что ИИ используется для управления ботнетами, группой скомпрометированных компьютеров, находящихся под контролем злоумышленника, которые используются для атак на другие компьютеры.

«ИИ можно использовать для автоматического сбора информации о человеке, например, о банке, медицинском обслуживании, водительских правах, днях рождения», - сказал он. «Они могут сформулировать изощренную попытку фишинга и доставить пользователю электронное письмо, которое кажется законным».

ИИ можно использовать для взлома, обнаруживая уязвимости и используя их, сказал Пол Бишофф, защитник конфиденциальности на веб-сайте Comparitech, в интервью по электронной почте.

ИИ и машинное обучение могут выявлять закономерности, которые люди упускают. Эти паттерны могут выявить слабые места… Затем ИИ может использовать эти уязвимости…

«Искусственный интеллект и машинное обучение могут выявлять закономерности, которые люди упускают из виду», - добавил он. «Эти шаблоны могут выявить слабые места в кибербезопасности или операционной безопасности цели. Затем ИИ может использовать эти уязвимости намного быстрее, чем человек, но и более гибко, чем традиционный бот».

ИИ может изменять и улучшать свои атаки без участия человека, сказал Бишофф.

«ИИ особенно хорошо подходит для сокрытия и может скрываться внутри системы, где он собирает данные или запускает атаки в течение длительного периода времени», - добавил он.

Защитите себя от ИИ

К сожалению, нет ничего конкретного, что пользователи могли бы сделать, чтобы защитить себя от взломов на основе ИИ, сказал Бишофф.

"Просто следуйте обычным правилам", - сказал он. «Минимизируйте свой цифровой след, обновляйте свое программное обеспечение, используйте антивирус, используйте брандмауэр, загружайте только надежное программное обеспечение из надежных источников, не нажимайте на ссылки или вложения в нежелательных сообщениях».

Но приготовьтесь к новым атакам под управлением ИИ.

Image
Image

«ИИ используется как для кибербезопасности, так и для кибератак, и в будущем мы можем увидеть, как системы ИИ атакуют друг друга», - сказал Бишофф. «Например, ИИ можно использовать для выявления нечеловеческого поведения и принятия мер против ботов. И наоборот, ИИ может использоваться ботами для более точной имитации человеческого поведения и обхода систем обнаружения ботов».

Группы, спонсируемые государством, станут вероятным источником взломов ИИ в будущем, сказал Крис Бонди, генеральный директор фирмы Mimoto, занимающейся кибербезопасностью, в интервью по электронной почте.

«Эта категория уже приводит к увеличению числа взломов, которые становятся все более изощренными», - добавил Бонди. «Если ИИ эффективно используется для взлома, это, вероятно, будет означать еще больше попыток взлома, которые будут еще более изощренными. Это имеет последствия для отдельных лиц, инфраструктуры, корпоративного шпионажа и национальной безопасности».

Рекомендуемые: