Предсказание преступлений ИИ может обвинить не тех людей

Оглавление:

Предсказание преступлений ИИ может обвинить не тех людей
Предсказание преступлений ИИ может обвинить не тех людей
Anonim

Ключевые выводы

  • Компания-разработчик программного обеспечения, как сообщается, собирает информацию из социальных сетей для создания профилей, которые можно использовать для выявления людей, представляющих угрозу безопасности.
  • Voyager Labs заключила важную сделку с японским правительственным агентством.
  • Но эксперты предупреждают, что программное обеспечение для прогнозирования ИИ можно обмануть.
Image
Image

Ваша онлайн-информация может быть использована для предсказания того, совершите ли вы преступление.

Voyager Labs, как сообщается, собирает информацию из социальных сетей для создания профилей, которые можно использовать для выявления людей, представляющих угрозу безопасности. Это часть растущих усилий по использованию искусственного интеллекта (ИИ) для расследования потенциальных преступников. Но некоторые эксперты говорят, что движение изобилует потенциальными проблемами.

«Очень сложно предсказать поведение человека», - сказал Lifewire Мэтью Карр, исследователь безопасности в Atumcell Group, в интервью по электронной почте. «Мы даже не в состоянии предсказать собственное поведение, не говоря уже о чьем-то еще. Я думаю, что ИИ можно будет использовать в будущем для этой цели, но мы далеки от того, чтобы сделать это в настоящее время."

Создание профилей

Как недавно сообщила The Guardian, полицейское управление Лос-Анджелеса изучило использование программного обеспечения Voyager Lab для прогнозирования преступлений. Компания также объявила о заключении крупной сделки с японским правительственным агентством.

Японское соглашение предоставляет правительственному агентству платформу для расследований на основе ИИ, которая анализирует огромные объемы информации из любого источника, включая открытые и глубокие данные.

«Я рад, что мы сотрудничаем в борьбе с терроризмом и преступностью», - сказал Дивья Хангарот, управляющий директор APAC в Voyager Labs, в пресс-релизе. «Используя передовые интеллектуальные решения Voyager Lab, наши клиенты получают уникальные возможности для упреждающего выявления и устранения потенциальных угроз. Мы предлагаем дополнительные уровни глубоких аналитических данных, используя комбинацию искусственного интеллекта, машинного обучения и OSINT для выявления скрытых следов, нарушенной информации, и плохие актеры."

Не такой умный?

Но в интервью по электронной почте Мэтт Хейси, соучредитель Ferret.ai, который также использует ИИ для прогнозирования правонарушителей, поставил под сомнение некоторые утверждения Voyager Labs.

"Существует ли такая же четкая связь между, скажем, записью об аресте и будущим преступным поведением, как черная точка на тесте и развитие опухоли?" он сказал. «Подумайте обо всех потенциальных путаницах, которые были связаны с этим арестом: в каком районе жил человек, количество и качество, даже предвзятость полиции в этом районе. Возраст человека, его пол, его внешний вид - все это оказывает пересекающееся влияние на вероятность того, что у этого человека есть запись об аресте, полностью отделенную от его фактической склонности к совершению преступления, которое мы пытаемся предсказать».

Ответчики с лучшими адвокатами, скорее всего, смогут скрыть записи от публичного доступа, сказал Хейзи. Некоторые юрисдикции ограничивают публикацию фотоснимков или записей об арестах, чтобы защитить обвиняемых.

"Компьютер будет учиться на основе данных, которые вы ему предоставите, и учтет все предубеждения, которые вошли в этот сбор данных…"

«Все это добавляет еще больше необъективности алгоритмам», - добавил он. «Компьютер будет учиться на основе данных, которые вы ему предоставите, и учтет все предубеждения, которые были включены в этот сбор данных, в обучение и интерпретацию».

Было несколько попыток создать ИИ, предсказывающий преступления, и часто с скандальными результатами, сказал Хейзи.

COMPAS, алгоритм, который правоохранительные органы используют для прогнозирования повторных правонарушений, часто используется при вынесении приговора и освобождении под залог. Еще в 2016 году он столкнулся со скандалом из-за расовой предвзятости, предсказав, что чернокожие обвиняемые представляют более высокий риск рецидивизма, чем на самом деле, и наоборот для белых обвиняемых..

Более 1000 технологов и ученых, включая академиков и экспертов по искусственному интеллекту из Гарварда, Массачусетского технологического института, Google и Microsoft, выступили в 2020 году против статьи, в которой утверждалось, что исследователи разработали алгоритм, который может предсказывать преступность на основе исключительно лицо человека, заявив, что публикация таких исследований усиливает ранее существовавшие расовые предубеждения в системе уголовного правосудия, отметил Хейси.

Image
Image

Китай является крупнейшим и наиболее быстрорастущим рынком для этого типа технологий, в первую очередь из-за широкого доступа к частным данным, с более чем 200 миллионами камер наблюдения и передовыми исследованиями искусственного интеллекта, сосредоточенными на этом вопросе в течение многих лет, сказал Хейси.. Такие системы, как Police Cloud компании CloudWalk, теперь используются для прогнозирования и отслеживания преступников, а также для выявления правоохранительных органов.

«Однако и здесь сообщается о существенных предубеждениях», - сказала Хейзи.

Хейзи добавил, что его компания тщательно отбирает поступающие данные и не использует фотографии или записи об арестах, «сосредоточившись вместо этого на более объективных критериях».

«Наш ИИ учился на отобранных данных, но, что более важно, он также учится у людей, которые сами анализируют, курируют и оценивают записи и рассказывают нам о своих взаимодействиях с другими», - добавил он. «Мы также обеспечиваем полную прозрачность и свободный и общедоступный доступ к нашему приложению (как только мы сможем запустить бета-версию) и приветствуем понимание наших процессов и процедур».

Рекомендуемые: