Ключевые выводы
- Новое исследование показало, что искусственный интеллект может отслеживать и контролировать ваше поведение в Интернете.
- Некоторые эксперты говорят, что ИИ уже контролирует поведение человека с помощью алгоритмов.
- Чтобы искусственный интеллект не мог изменить их решения, пользователи должны помнить, что конфиденциальности в сети не существует.
Компьютеры скоро смогут контролировать выбор, который вы делаете в Интернете.
Исследователи недавно обнаружили, что искусственный интеллект (ИИ) может находить и использовать слабые места в процессе принятия решений человеком и направлять людей к определенным решениям. Эксперты говорят, что открытие является признаком растущего влияния алгоритмов на человеческое поведение.
"Люди, активно использующие цифровые онлайн-платформы, подвергаются большему риску влияния, чем обычные люди, в силу того, что ИИ и машинное обучение предлагают значительные преимущества во многих областях. области, в том числе здравоохранение", - сказал он. «В конечном счете, от того, насколько ответственно мы установим эти технологии, будет зависеть, будут ли они использоваться для достижения хороших результатов для общества или будут использоваться для получения выгоды».
Не только теория
В то время как в недавней статье подчеркивается способность ИИ влиять на решения, некоторые эксперты говорят, что компьютеры уже делают именно это. Любой, кто выходит в Интернет и получает доступ к сети, подвержен всепроникающей силе ИИ, сказала Lifewire Джозефин Ям, юрист и специалист по этике в области ИИ..
«ИИ - это четвертая промышленная революция», - сказал Ям. «Его растущая способность принимать автономные решения быстрее, лучше и дешевле, чем люди, оказывает глубокое влияние на нашу жизнь. Функции помощи водителю делают наши автомобили более безопасными. Компьютерное зрение делает диагностику заболеваний более точной. Машинный перевод позволяет нам общаться через океаны, несмотря на языковые барьеры».
Поскольку ИИ вплетен в большинство аспектов нашей жизни, он влияет на наши повседневные решения, осознаем мы это или нет, сказал Ям. Он показывает онлайн-рекламу и новостные ленты на основе наших предыдущих кликов. Он рекомендует музыку, фильмы и идеи подарков на основе нашего прошлого прослушивания, просмотра и покупок.
«ИИ - величайшая в мире машина для прогнозирования», - добавил Ям. «Поскольку для обучения алгоритмов используются большие объемы исторических данных, возможности машинного обучения системы ИИ обнаруживают нюансы в наших личных данных, чтобы давать очень точные рекомендации о нас».
Но Тереза Кушнер, эксперт по ИИ в NTT DATA Services, оспаривает идею о том, что ИИ в настоящее время влияет на онлайн-решения. «Можно сказать, что ИИ помогает принимать решения», - сказал Кушнер Lifewire в интервью по электронной почте.
«Но влияние - это особая способность влиять на характер, развитие или поведение кого-то или чего-то», - добавил Кушнер. «Ваша лента Google - хороший пример работы ИИ сегодня. Вы покупаете больше мебели в последнее время, потому что Google знает, что вы смотрели на диваны?»
Чтобы предотвратить кражу ИИ их решений, Ям сказал, что пользователи должны помнить, что конфиденциальность в Интернете больше не существует.
«Люди оставляют цифровые следы своей личности или личных данных, где бы они ни находились. Алгоритмы ИИ записывают, компилируют и извлекают все их личные данные в Интернете», - добавил Ям. «Эти алгоритмы собирают тысячи точек личных данных о пользователе, чтобы делать прогнозы о наиболее вероятном поведении этого пользователя».
Вне зависимости от того, влияет ли в настоящее время ИИ на человеческие решения, наблюдатели призывают к усилению отраслевого регулирования. По словам Яма, предлагаемый Закон ЕС об искусственном интеллекте, например, является первой глобальной нормативно-правовой базой, которая возлагает на людей ответственность за вредное воздействие их ИИ.
«Единственный реальный способ предотвратить злоупотребление искусственным интеллектом такого типа крупными технологическими компаниями - потребовать от них, будь то путем общественного давления или законодательства, сделать свои алгоритмы обучения с подкреплением доступными для общественного контроля», - сказал Борхани. «Это несложно, учитывая, что эти компании по-прежнему хранят данные своих пользователей, без которых алгоритмы сами по себе бесполезны».