Почему новое программное обеспечение для профилирования вызывает опасения по поводу конфиденциальности

Оглавление:

Почему новое программное обеспечение для профилирования вызывает опасения по поводу конфиденциальности
Почему новое программное обеспечение для профилирования вызывает опасения по поводу конфиденциальности
Anonim

Ключевые выводы

  • Программное обеспечение, использующее искусственный интеллект для профилирования людей, вызывает опасения в отношении конфиденциальности.
  • Cryfe сочетает методы поведенческого анализа с искусственным интеллектом.
  • Китайская компания Alibaba недавно подверглась критике после того, как, как сообщается, заявила, что ее программное обеспечение может обнаруживать уйгуров и другие этнические меньшинства.
Image
Image

Новое программное обеспечение на базе искусственного интеллекта, предназначенное для того, чтобы работодатели могли профилировать своих сотрудников, вызывает озабоченность в отношении конфиденциальности.

Одна новая программная платформа под названием Cryfe сочетает методы поведенческого анализа с искусственным интеллектом. Разработчик утверждает, что, анализируя мельчайшие подсказки, программное обеспечение может раскрывать намерения людей во время интервью. Но некоторые наблюдатели говорят, что Cryfe и другие типы программного обеспечения, которые анализируют поведение, могут вторгаться в частную жизнь.

«Компании все больше полагаются на ИИ для профилирования», - сказал эксперт по ИИ Вацлав Винцале в интервью по электронной почте. «Но даже люди, которые кодируют эти алгоритмы, не говоря уже о сотрудниках службы поддержки, с которыми вы связываетесь по телефону, не могут объяснить вам, почему они дают ту или иную рекомендацию».

Больше, чем слова

Cryfe был разработан швейцарской компанией, сотрудники которой прошли обучение в ФБР методам профилирования. «Cryfe во всем межличностном общении не только прислушивается к словам, но и идентифицирует другие сигналы, излучаемые человеком, такие как эмоции, микровыражения и все жесты», - сказала в интервью по электронной почте основатель Cryfe Кэролайн Маттеуччи.

"Например, во время вербовки это позволяет нам пойти и найти настоящую личность нашего собеседника."

Маттеуччи сказал, что конфиденциальность пользователей защищена, потому что компания прозрачна в отношении того, как работает ее программное обеспечение. «Прежде чем использовать платформу, пользователь должен принять общие условия», - сказала она.

"Там указано, что пользователь ни в коем случае не может сдать интервью на анализ, не получив письменного согласия собеседника."

Cryfe - не единственное программное обеспечение на основе искусственного интеллекта, предназначенное для анализа человеческого поведения. Есть еще Humantic, который утверждает, что анализирует поведение потребителей. «Новаторская технология Humantic предсказывает поведение каждого без необходимости проходить личностный тест», - говорится на веб-сайте компании.

Image
Image

Компания утверждает, что использует ИИ для создания психологических профилей соискателей на основе слов, которые они используют в резюме, сопроводительных письмах, профилях LinkedIn и любом другом фрагменте текста, который они отправляют.

Поведенческое программное обеспечение в прошлом сталкивалось с юридическими проблемами. В 2019 году агентство Bloomberg Law сообщило, что Комиссия по равным возможностям при трудоустройстве (EEOC) расследовала случаи предполагаемой незаконной дискриминации из-за решений, связанных с кадрами, с помощью алгоритмов.

«Все это нужно будет проработать, потому что будущее рекрутинга - это ИИ», - сказал Bloomberg юрист Брэдфорд Ньюман.

Некоторые наблюдатели не согласны с тем, что компании используют программное обеспечение для отслеживания поведения, потому что оно недостаточно точное. В интервью Найджел Даффи, глобальный лидер в области искусственного интеллекта в компании EY, предоставляющей профессиональные услуги, сказал InformationWeek, что его беспокоит программное обеспечение, которое использует викторины в социальных сетях и обнаруживает аффекты.

«Я думаю, что есть действительно убедительная литература о возможностях обнаружения аффектов, но я понимаю, что способ, которым это реализовано, часто довольно наивен», - сказал он.

"Люди делают выводы, которые наука на самом деле не поддерживает [например,] решают, что кто-то является потенциально хорошим сотрудником, потому что они много улыбаются, или решают, что кому-то нравятся ваши продукты, потому что они много улыбаются."

Китайские компании сообщают о профилях меньшинств

Поведенческое отслеживание может иметь и более зловещие цели, считают некоторые правозащитные группы. В Китае гигант интернет-рынка Alibaba недавно поднял шум после того, как, как сообщается, заявил, что его программное обеспечение может обнаруживать уйгуров и другие этнические меньшинства.

The New York Times сообщила, что в бизнесе облачных вычислений компании есть программное обеспечение, которое сканирует изображения и видео.

Но даже люди, которые кодируют эти алгоритмы… не могут объяснить вам, почему они дают ту или иную рекомендацию.

The Washington Post также недавно сообщила, что Huawei, еще одна китайская технологическая компания, протестировала программное обеспечение, которое могло предупредить правоохранительные органы, когда ее камеры наблюдения обнаруживают уйгурские лица.

В патентной заявке Huawei от 2018 года, как сообщается, утверждается, что «идентификация атрибутов пешехода очень важна» в технологии распознавания лиц.«Атрибутами целевого объекта могут быть пол (мужской, женский), возраст (например, подростки, средний возраст, старый) [или] раса (ханьцы, уйгуры)», - говорится в приложении.

Представитель Huawei заявил CNN Business, что функция идентификации этнической принадлежности «никогда не должна была стать частью приложения».

Растущее использование искусственного интеллекта для сортировки огромных объемов данных обязательно вызовет проблемы с конфиденциальностью. Вы никогда не узнаете, кто или что анализирует вас в следующий раз, когда вы пойдете на собеседование при приеме на работу.

Рекомендуемые: