Как ИИ может манипулировать вашим выбором

Оглавление:

Как ИИ может манипулировать вашим выбором
Как ИИ может манипулировать вашим выбором
Anonim

Ключевые выводы

  • ИИ и алгоритмы машинного обучения наблюдают за поведением человека и могут научиться манипулировать им, говорят эксперты.
  • Исследователи недавно придумали способ находить и использовать уязвимости в том, как люди делают выбор с помощью ИИ.
  • По словам одного наблюдателя, самым сложным алгоритмом социальных сетей на данный момент является TikTok.
Image
Image

Искусственный интеллект (ИИ) и алгоритмы машинного обучения все больше учатся влиять на поведение пользователей, говорят эксперты.

Исследователи из Национального агентства по науке Австралии недавно разработали способ находить и использовать уязвимости в том, как люди делают выбор с помощью ИИ. Последнее исследование - лишь одно из целого ряда систем, управляемых искусственным интеллектом, предназначенных для манипулирования процессом принятия решений человеком.

«Многим способам, которыми ИИ уже влияет на поведение, нет конца», - Кентаро Тояма, профессор Школы информации Мичиганского университета и автор книги «Ересь компьютерщиков: спасение социальных изменений от культа технологий»., сказал в интервью по электронной почте.

"На самом деле, если вы когда-либо выполняли поиск в Google и переходили по ссылке, на вас воздействовала система ИИ, которая угадывала ваши интересы и выдавала результаты, которые, по ее мнению, были наиболее актуальными для вас".

ИИ против людей

В австралийском исследовании, опубликованном в недавней статье, люди играли в игры против компьютера в различных экспериментах. В первом эксперименте участники нажимали на квадраты красного или синего цвета, чтобы выиграть деньги.

ИИ был успешен примерно в 70% случаев, изучая модели выбора участников и направляя их к конкретному выбору.

В другом эксперименте участники смотрели на экран и нажимали кнопку, когда им показывали определенный символ, или не нажимали ее, когда предлагали другой. ИИ научился переставлять символы, поэтому участники совершали больше ошибок.

Image
Image

Результатом экспериментов, пришли к выводу исследователи, стало то, что ИИ учился на ответах участников. Затем машина выявляла и нацеливалась на уязвимые места в процессе принятия решений людьми. По сути, ИИ может манипулировать участниками, заставляя их совершать определенные действия.

Тот факт, что искусственный интеллект или машинное обучение могут манипулировать людьми, не должен удивлять, говорят наблюдатели.

«ИИ влияет на наше поведение каждый день», - сказала в интервью по электронной почте Тамара Шварц, доцент кафедры кибербезопасности и делового администрирования Йоркского колледжа в Пенсильвании.

"Мы все время слышим об алгоритмах в приложениях для социальных сетей, таких как Facebook или Twitter. Эти алгоритмы направляют наше внимание на соответствующий контент и создают эффект "эхо-камеры", который, в свою очередь, влияет на наше поведение."

TikTok смотрит

Самым сложным алгоритмом социальных сетей на данный момент является TikTok, сказал Шварц. Приложение анализирует, что вас интересует, как долго вы что-то смотрите и как быстро что-то пропускаете, а затем уточняет свои предложения, чтобы вы продолжали смотреть.

«TikTok вызывает гораздо большее привыкание, чем другие платформы, благодаря этому алгоритму искусственного интеллекта, который понимает, что вам нравится, как вы учитесь и как выбираете информацию», - добавила она. «Мы знаем это, потому что среднее время, которое пользователи проводят в TikTok, составляет 52 минуты».

Манипулирование человеческим поведением с помощью искусственного интеллекта может иметь положительное значение, заявил Крис Николсон, генеральный директор компании Pathmind, занимающейся искусственным интеллектом, в интервью по электронной почте. Агентства общественного здравоохранения, например, могли бы использовать ИИ, чтобы побуждать людей принимать более взвешенные решения.

Image
Image

"Однако социальные сети, производители видеоигр, рекламодатели и авторитарные режимы ищут способы побудить людей принимать решения, которые не в их интересах, и это даст им новые инструменты для этого", - добавил он.

Этические проблемы, связанные с влиянием ИИ на поведение, часто имеют определенную степень, сказал Тояма. ИИ позволяет сфокусировать рекламу, в которой можно использовать индивидуальные предпочтения и слабости.

«Например, система ИИ может идентифицировать людей, которые пытаются бросить курить, и засыпать их заманчивой рекламой сигарет», - добавил он.

Не все согласны с тем, что ИИ манипулирует человеческим поведением проблематично. Как классическая психология, так и ИИ наблюдают за данными, отметил в интервью по электронной почте Джейсон Дж. Корсо, директор Института искусственного интеллекта Стивенса.

«Ученые-человеки, вероятно, лучше обобщают наблюдения и вырабатывают теории человеческого поведения, которые могут быть более широко применимы, тогда как модели ИИ лучше подходят для выявления нюансов, характерных для конкретной проблемы», - сказал Корсо..

"С этической точки зрения я не вижу между ними разницы."

Рекомендуемые: