Ключевые выводы
- Исследователи разработали систему искусственного интеллекта, предназначенную для обнаружения и пометки фейковых новостей.
- Модель просматривает общедоступный набор данных фейковых новостей, предупреждает пользователей и перенаправляет их к проверенным источникам информации.
-
Существует все больше методов искусственного интеллекта для борьбы с ложными новостями в Интернете.
Искусственный интеллект (ИИ) помогает сдерживать быстрое распространение дезинформации в Интернете, говорят эксперты.
Исследователи разработали систему искусственного интеллекта, предназначенную для обнаружения и пометки фейковых новостей. Модель просматривает общедоступный набор данных фальшивых новостей, предупреждает пользователей и перенаправляет их к проверенным источникам информации. Это часть растущего числа методов искусственного интеллекта для противодействия ложным новостям.
«Объем информации, проходящей через Интернет, особенно в социальных сетях, огромен и не может быть обработан вручную, особенно с высокой точностью», - Ваэль Абд Альмагид, профессор вычислительной техники в Университете Южной Калифорнии, разработавший Алгоритмы ИИ для обнаружения визуальной дезинформации, рассказал Lifewire в интервью по электронной почте.
«Важно отслеживать и помечать дезинформацию в режиме реального времени, поскольку, как только дезинформация начинает распространяться, трудно убедить людей в том, что информация является ложной, особенно когда дезинформация подтверждает наши предубеждения», - добавил он.
Сохраняя реальность
Техника искусственного интеллекта, разработанная командой австралийского Университета Маккуори, может помочь уменьшить распространение фейковых новостей. Модель может быть встроена в приложение или веб-приложение и предлагает ссылки на актуальную «достоверную» информацию, которая соответствует интересам каждого пользователя.
«Когда вы читаете или смотрите новости в Интернете, вам часто предлагают новости о похожих событиях или темах с использованием модели рекомендаций», - сказал Шоуджин Ван, специалист по данным из Университета Маккуори, который работал над исследованием. выпуск новостей.
Ванг говорит, что точные новости и поддельные новости об одном и том же событии часто используют разные стили контента, что приводит к тому, что компьютерные модели интерпретируют их как новости для разных событий.
Модель Университета Маккуори «распутывает» информацию каждой новости на две части: знаки, показывающие, является ли новость фальшивой, и информация, относящаяся к конкретному событию, показывающая тему или событие, о котором идет речь. Затем модель ищет закономерности в том, как пользователи переключаются между разными новостями, чтобы предсказать, какое новостное событие может быть интересно прочитать пользователю в следующий раз.
Исследовательская группа обучила модель на общедоступном наборе данных фейковых новостей, опубликованном на GitHub, под названием FakeNewsNet, в котором хранятся фальшивые новости от PolitiFact и GossipCop, а также такие данные, как новостной контент, социальный контекст и истории чтения пользователями.
Рост фейковых новостей
Фейковые новости становятся все более серьезной проблемой, показывают исследования. NewsGuard обнаружил, что значительная часть роста социальных сетей приходится на ненадежные веб-сайты. В 2020 году 17% вовлеченности среди 100 лучших источников новостей приходилось на сайты с красным рейтингом (как правило, ненадежные) по сравнению с примерно 8% в 2019 году..
Субраманиам Винсент, директор по журналистике и этике СМИ в Центре прикладной этики Марккулы в Университете Санта-Клары, сказал Lifewire в интервью по электронной почте, что ИИ может помочь противостоять дезинформации.
Эта технология может быть использована для «мониторинга поведения учетной записи для организованного обмена, связанного с разжиганием ненависти или уже опровергнутыми заявлениями, или развенчанными фактчекерами или известными пропагандистскими государственными структурами или зарождающимися группами с быстрым ростом членства», - пояснил Винсент. «ИИ также можно использовать вместе с дизайном, чтобы пометить контент определенных типов, чтобы добавить трения, прежде чем им будут делиться».
AbdAlmageed сказал, что социальные сети должны интегрировать алгоритмы обнаружения поддельных новостей как часть своих алгоритмов рекомендаций. По его словам, цель состоит в том, чтобы «пометить фейковые новости как фейковые или неточные, если они не хотят полностью предотвращать распространение фейковых новостей».
Тем не менее, хотя ИИ может быть полезен для противодействия фейковым новостям, у этого подхода есть свои недостатки, сказал Винсент. Проблема в том, что системы ИИ не могут понять значение человеческой речи и письма, поэтому они всегда будут отставать.
«Чем точнее ИИ сможет справиться с некоторыми формами откровенной ненависти и дезинформации, тем больше человеческая культура будет двигаться к более новому коду и организации скрытой передачи смысла», - сказал Винсент.
Васим Халед, генеральный директор компании по мониторингу дезинформации Blackbird. AI, заявил в электронном письме Lifewire, что онлайн-дезинформация представляет собой растущую угрозу. Новые системы искусственного интеллекта должны уметь предсказывать, где в следующий раз появятся фейковые новости.
«В большинстве случаев вы не можете создать продукт с искусственным интеллектом и назвать его готовым», - сказал Халед. «Поведенческие модели со временем меняются, и важно, чтобы ваши модели ИИ не отставали от этих изменений».