Ключевые выводы
- Алгоритмическая предвзятость вредна для подростков, которые проводят много времени в Интернете, считают эксперты.
- Пользователи Твиттера недавно столкнулись с проблемой, из-за которой черные лица отбрасывались в пользу белых.
- Развивающийся мозг подростков может быть особенно восприимчив к разрушительному воздействию алгоритмической предвзятости, говорят исследователи.
Предубеждение, заложенное в некоторых технологиях, известное как алгоритмическая предвзятость, может быть вредным для многих групп, но эксперты говорят, что это особенно вредно для подростков.
Алгоритмическая предвзятость, когда компьютерные системы показывают предвзятые результаты, становится все более серьезной проблемой. Пользователи Twitter недавно обнаружили пример предвзятости на платформе, когда алгоритм обнаружения изображений, обрезающий фотографии, вырезал черные лица в пользу белых. Компания принесла извинения за проблему, но пока не выпустила исправление. Это пример предвзятости, с которой сталкиваются подростки, когда выходят в интернет, а они делают это чаще, чем представители любой другой возрастной группы, считают эксперты.
«Большинство подростков не знают, что компании социальных сетей используют их для продвижения определенного контента, который, по их мнению, понравится пользователям, [чтобы заставить их оставаться на платформе как можно дольше», - д-р Май- Ли Нгуен Стирс, доцент Школы медсестер Университета Дюкен, изучающая использование социальных сетей подростками/студентами, сказала в интервью по электронной почте.
«Даже если есть некоторый уровень осознания алгоритма, эффект от недостаточного количества лайков и комментариев по-прежнему силен и может повлиять на самооценку подростков», - добавил Стирс.
Развитие мозга
Алгоритмическая предвзятость может непредвиденным образом повлиять на подростков, поскольку их префронтальная кора все еще развивается, объяснила в интервью по электронной почте Микаэла Пизани, главный специалист по данным в Rootstrap.
Недостаточное количество лайков и комментариев по-прежнему сильно влияет на самооценку подростков.
«Подростки особенно уязвимы к феномену «социальной фабрики», когда алгоритмы создают социальные кластеры на онлайн-платформах, что приводит к тревоге и депрессии, если потребности подростков в социальном одобрении не удовлетворяются», - сказал Пизани. «Алгоритмы упрощаются на основе предыдущих несовершенных данных, что приводит к чрезмерному представлению стереотипов за счет более тонких подходов к формированию идентичности.
"Глядя на более широкую точку зрения, мы, как общество, также должны задаться вопросом, хотим ли мы, чтобы алгоритмы формировали путь наших подростков во взрослую жизнь, и поддерживает ли эта система, а не подавляет индивидуальный личностный рост?"
Из-за этих проблем растет необходимость учитывать подростков при разработке алгоритмов, говорят эксперты.
«На основе информации, полученной от специалистов по развитию, специалистов по данным и защитников молодежи, политика 21-го века в отношении конфиденциальности данных и алгоритмического проектирования может также разрабатываться с учетом особых потребностей подростков», - Авриэль Эппс-Дарлинг, докторант студент Гарварда, написал недавно. «Если вместо этого мы продолжим преуменьшать или игнорировать то, как подростки уязвимы для алгоритмического расизма, вред, вероятно, отразится на грядущих поколениях».
Борьба с предвзятостью
Пока решение не найдено, некоторые исследователи пытаются найти способы уменьшить ущерб, наносимый молодым людям предвзятыми алгоритмами.
«Вмешательства были сосредоточены на том, чтобы заставить подростков признать, что их привычки в социальных сетях негативно влияют на их психическое здоровье, и попытаться придумать стратегии для смягчения этого (например, сокращение использования социальных сетей)», - сказал Стирс..
«Некоторые из опрошенных нами студентов колледжа указали, что чувствуют себя обязанными создавать контент, чтобы оставаться «актуальным», даже если они не хотят выходить или публиковать», - продолжила она. «Однако они чувствуют, что им необходимо создавать контент, чтобы поддерживать связь со своими подписчиками или друзьями».
Конечным ответом может быть удаление человеческого фактора из компьютеров. Но поскольку программисты всего лишь люди, это сложная задача, говорят эксперты.
Одним из возможных решений является разработка децентрализованных компьютеров, запрограммированных на забвение того, чему они научились, говорит Джон Суит, главный технический директор робототехнической фирмы KODA.
«Через децентрализованную сеть данные и аналитика этих данных собираются и анализируются из нескольких точек», - сказал Костюм в интервью по электронной почте. «Данные собираются и обрабатываются не с одного ИИ, обрабатывающего разум в рамках своего алгоритма, а сотен или даже тысяч.
"По мере того, как эти данные собираются и анализируются, старые "выводы" или лишние данные забываются. С помощью этой системы алгоритм, который, возможно, начал с предвзятости, в конечном итоге исправит и заменит эту предвзятость, если окажется неверным."
Хотя предвзятость может быть вековой проблемой, могут быть способы борьбы с ней, по крайней мере, в Интернете. Создание компьютеров, избавляющих от наших предрассудков, - это первый шаг.