Расовая предвзятость алгоритма Twitter указывает на большую техническую проблему

Оглавление:

Расовая предвзятость алгоритма Twitter указывает на большую техническую проблему
Расовая предвзятость алгоритма Twitter указывает на большую техническую проблему
Anonim

Ключевые выводы

  • Twitter надеется исправить то, что пользователи называют расовой предвзятостью в своем программном обеспечении для предварительного просмотра изображений.
  • Вызов технологического гиганта может быть культурным расчетом, который индустрия должна решать проблемы разнообразия.
  • Отсутствие разнообразия в технологиях снижает эффективность технологических достижений.
Image
Image

Twitter собирается начать расследование своего алгоритма обрезки изображений после того, как он стал популярной темой, вызвавшей более широкий разговор о проблемах разнообразия в технологической индустрии.

Джаггернаут социальных сетей попал в заголовки газет после того, как пользователи обнаружили очевидную расовую предвзятость в его алгоритме предварительного просмотра изображений. Открытие произошло после того, как пользователь Twitter Колин Мэдленд использовал платформу, чтобы сообщить о том, что Zoom не смог распознать своих чернокожих коллег, которые использовали технологию зеленого экрана, но по иронии судьбы он обнаружил, что алгоритм обрезки изображений в Twitter ведет себя аналогичным образом и деприоритезировал лица чернокожих.

Конечно, это огромная проблема для любого меньшинства, но я думаю, что есть и гораздо более серьезная проблема.

Другие пользователи подхватили эту тенденцию, вызвав серию вирусных твитов, показывающих, что алгоритм постоянно отдает приоритет белым и светлокожим лицам, от людей до мультяшных персонажей и даже собак. Эта неудача свидетельствует о более широком культурном движении в технологической индустрии, которое постоянно не учитывало интересы групп меньшинств, что перекинулось на техническую сторону.

«Это заставляет меньшинства чувствовать себя ужасно, как будто они не важны, и это может быть использовано для других вещей, которые могут причинить более серьезный вред в будущем», - Эрик Лернед-Миллер, профессор компьютерных наук в университете. Массачусетс, сказал в телефонном интервью.«После того, как вы решили, для чего можно использовать программное обеспечение и какой вред может быть нанесен, мы начинаем говорить о том, как свести к минимуму вероятность того, что это произойдет».

Канарейка на временной шкале

Twitter использует нейронные сети для автоматического кадрирования изображений, встроенных в твиты. Алгоритм должен обнаруживать лица для предварительного просмотра, но, похоже, он имеет заметное смещение белого. Представитель компании Лиз Келли написала в Твиттере ответ на все опасения.

Келли написал в Твиттере: «Спасибо всем, кто поднял этот вопрос. Мы проверили предвзятость перед отправкой модели и не нашли доказательств расовой или гендерной предвзятости в нашем тестировании, но ясно, что у нас есть больше анализа, чтобы мы будем открывать исходный код нашей работы, чтобы другие могли просматривать и копировать."

Соавтор официального документа «Технологии распознавания лиц в дикой природе: призыв к федеральному ведомству» Лернед-Миллер является ведущим исследователем излишеств программного обеспечения для обучения искусственному интеллекту на основе лиц. Он годами обсуждал потенциальное негативное влияние программного обеспечения для обучения изображениям и говорил о важности создания реальности, в которой эти предубеждения смягчаются в меру своих возможностей.

Многие алгоритмы технологии распознавания лиц используют эталонные наборы данных, часто называемые обучающими наборами, которые представляют собой набор изображений, используемых для точной настройки поведения программного обеспечения для обучения изображениям. В конечном итоге это позволяет ИИ легко распознавать широкий спектр лиц. Однако в этих эталонных наборах может отсутствовать разнообразный пул, что приводит к проблемам, подобным тем, с которыми столкнулась команда Twitter.

«Конечно, это огромная проблема для любого меньшинства, но я думаю, что есть и гораздо более серьезная проблема», - сказал Лернед-Миллер. «Это связано с отсутствием разнообразия в технологическом секторе и необходимостью в централизованной регулирующей силе для демонстрации надлежащего использования такого мощного программного обеспечения, подверженного неправильному использованию и злоупотреблению».

Технологиям не хватает разнообразия

Twitter может быть последней технологической компанией на плахе, но это далеко не новая проблема. Сфера технологий остается преимущественно белой, в которой постоянно доминируют мужчины, и исследователи обнаружили, что отсутствие разнообразия вызывает воспроизведение системных, исторических дисбалансов в разрабатываемом программном обеспечении.

В отчете Института искусственного интеллекта Нью-Йоркского университета за 2019 год исследователи обнаружили, что чернокожие составляют менее 6 процентов рабочей силы в ведущих технологических компаниях страны. Точно так же женщины составляют только 26 процентов работников в этой области - статистические данные ниже, чем их доля в 1960 году.

Это заставляет меньшинства чувствовать себя ужасно, как будто они не важны, и его можно использовать для других вещей, которые могут причинить более серьезный вред в будущем.

На первый взгляд, эти репрезентативные проблемы могут показаться обыденными, но на практике причиненный вред может быть огромным. Исследователи в отчете AI Now Institute предполагают, что это причинно связано с проблемами программного обеспечения, которое часто не учитывает небелое и не мужское население. Будь то инфракрасные дозаторы мыла, которые не могут обнаружить более темную кожу, или программное обеспечение Amazon с искусственным интеллектом, которое не может отличить женские лица от мужских, неспособность решить проблему разнообразия в технологической отрасли приводит к неспособности технологий справиться с разнообразным миром.

«Есть много людей, которые не продумали проблемы и на самом деле не осознают, как эти вещи могут причинить вред и насколько значителен этот вред», - предположил Лернед-Миллер об обучении изображений ИИ. «Надеюсь, количество людей сокращается!»

Рекомендуемые: