На недавних президентских выборах в США стало ясно, что левые и правые используют Интернет и социальные сети для распространения ложной информации с использованием новой формы коварной пропаганды: «поддельных новостей». Практически в режиме реального времени и с минимальными затратами организации и отдельные лица могли на новостных сайтах, в социальных сетях и блогах публиковать фальшивые новости, которые выглядели и воспринимались как правдивые. Миллионы людей читали эти истории и, возможно, верили в их правдивость.
Полемика вокруг вопроса, насколько подобные фальшивки повлияли на исход президентских выборов, по-прежнему не стихает, но вряд ли найдутся желающие читать лживые новости вместо того, чтобы обладать истинной информацией.
ИИ в помощь
Быстрого и лёгкого способа исправить фальшивые новости не существует, однако есть технология, которая может помочь улучшить качество публичного дискурса: искусственный интеллект. Facebook и Google уже используют ИИ для идентификации контента, который кажется подозрительным, и вскоре мы увидим, что медиа-компании, правительственные и непартийные группы и другие заинтересованные организации используют аналогичные инструменты.
Программное обеспечение, основанное на искусственном интеллекте, уже может анализировать структуру статьи, чтобы оценить ее логичность. Хотя анализ видеоконтента является более сложным, он тоже не за горами.
Представьте себе мир, где каждую статью можно оценить на основе ее уровня звукового дискурса. Несколько лет назад вышла статья Пола Грэма, знаменитого инвестора и основателя Y Combinator, озаглавленную «Как не соглашаться». В ней Грэм излагает этапы аргументации — от наименее сложной стратегии аргументации к чувствам, вплоть до прямого опровержения центрального аргумента. Понимание естественного языка и инструменты машинного обучения могут быть разработаны для анализа статей, чтобы выявить базовую риторическую архитектуру, включая основную мысль, утверждения, поддерживающие центральный тезис, определить, находится ли автор в прямом противоречии с основным аргументом или просто пытается дискредитировать первоисточник и тому подобные вещи.
Подумайте об этом как об абстракции среды разработки программного обеспечения на более высоком уровне, которая автоматически форматирует текст в соответствии с языком программирования и контекстом, например отступы, закрывающие скобки, группировка функций по цвету и т. д. Эти возможности упрощают понимание контекста и функциональных возможностей базового кода и то, как отдельные фрагменты связаны и вносят вклад в более крупную кодовую базу. Кроме того, программное обеспечение ИИ могло бы автоматически вставлять ссылки на исходный материал для поддержки и опровержения информации. Хотя такие инструменты не будут устранять поддельные новости, они позволят людям видеть истории в контексте, оценивать их общую логическую структуру и принимать более обоснованные решения относительно доверия им.
Спрос будет стимулировать инновации
К сожалению, эта реальность все ещё теоретическая. Использование ИИ для блокирования потока поддельных новостей возможно, но это удовольствие не из дешёвых — и широкомасштабное развертывание мониторинга поддельных новостей не произойдёт, пока для этого не возникнет реальная потребность в деловой среде. Медиа-компании будут все больше заинтересованы в защите своей репутации и могут инвестировать в интеллектуальные системы контроля содержания, чтобы доказать достоверность своего контента по отношению к фальшивым новостям. Фирмы и бренды, осуществляющие маркетинговые исследования, также будут заинтересованы в использовании ИИ, чтобы иметь более глубокое понимание того, как новости — поддельные и реальные — оказывают влияние на потребителей при принятии ими решений о покупке.
Но на данный момент реального случая коммерческого применения систем мониторинга фейковых новостей пока нет. Хотя существуют мощные экономические стимулы, которые благоприятствуют общим взглядам и вовлечению в качество, отсюда и широко распространенная практика clickbait.
Это не означает, что инновации прекратились. На самом деле есть огромное количество инициатив по борьбе с поддельными новостями. Недавно подразделение Jigsaw Google объявило о программном средстве, которое поможет издателям идентифицировать токсичные комментарии. Facebook и Google инвестируют в ИИ, чтобы отфильтровать фальшивые новости, потому что их репутация зависит от этого. Такие компании, как Narrative Science, Automated Insights и Smart Logic уже используют ИИ для автоматической публикации новостей, поэтому, как только представится подходящий случай, эти компании могут применить свою технологию для фильтрации фальшивых новостей. Тем временем исследователи компьютерных технологий, разработчики и хакеры уже начинают решать эту проблему. 19-летний студент из Стэнфорда объявил о создании фильтра новостей на основе искусственного интеллекта.
Но широкомасштабная, неангажированная система фильтрации новостей, которая может сканировать и оценивать достоверность всех новостных материалов в сети, по-прежнему остается мечтой. Такая система будет массивной по масштабу и потребует постоянных обновлений, чтобы оставаться неуязвимой для хакеров. Следует ли государству финансировать и строить искусственную систему мониторинга поддельных новостей на основе ИИ? Должна ли медиа-индустрия отвечать за создание и поддержку сторонней системы мониторинга сторонних организаций? Должен ли мониторинг фейковых новостей быть системой массового распространения, созданной и контролируемой тысячами независимых разработчиков? И независимо от того, кто управляет такой системой, как мы могли бы гарантировать, что широкая группа разработчиков с множеством точек зрения создаст систему мониторинга, свободную от тенденциозности? На эти вопросы нет легких ответов. Мы знаем, что ИИ уже способен играть роль медиа-полицейского. Он может анализировать статью, чтобы определить происхождение информации и создать ссылки на источники. Он может присваивать баллы достоверности статьям, основанным на качестве источников и силе дискурса. Конечно, ИИ не идеальное решение для выявления поддельных новостей. Хотя он может предоставить инструменты и рекомендации, которые помогут людям лучше решить для себя, заслуживает ли статья доверия или нет, она никогда не сможет обеспечить 100-процентную точную оценку. Когда предприниматель определит бизнес-модель для борьбы с поддельными новостями всего лишь вопрос времени. До тех пор же распространение ложного контента, пропаганды и clickbait, к сожалению, не ослабеет.