Fake News
FAKE NEWS
После того, как придумали адаптивные поисковые алгоритмы гугла, оказалось, что можно не просто выдавать наилучший результат поиска, но и теми самыми результатами подталкивать человека к выводам. Например, если человек ищет по тегу «политика», можно результаты по совокупности тегов «политика + либертарианство» выдавать раньше тегов «политика + социализм». Человек будет воспринимать первые результаты как более важные и популярные.
Facebook пошёл чуть дальше. Здесь уже не в поисковых запросах дело. Как поисковые запросы система воспринимает каждое написанное человеком слово, и каждый его репост. Так создаётся внутренний профиль, по которому система определяет, что именно предлагать человеку в ленте.
Сперва система работала по принципу «подобное к подобному». Но оказалось (и наделало много шума), что, например, человеку, пишущему о суициде предлагаются группы суицидников. А преступнику — группы преступников.
Из-за этого мордокнига получила некое общественное согласие на изменение принципов формирования ленты в пользу «здоровья общества». Сперва было предложено суицидникам выдавать группы реабилитации. Затем, беременным — группы по подготовке (и магазины сопутствующих товаров, конечно же). А дальше сия опция попросту вошла в пакет, продаваемый рекламодателям. Теория разбитых окон? Нет, не слышали.
Спустя некоторое время оказалось, что самая дорогая реклама — политическая. Ибо оплачивается, вестимо, из денег лоббистов. Но, вот какая беда: реклама, не соответствующая политическим взглядам читателя, не воспринималась. Для проверки проводилась куча исследований, благо ресурсы были, крупнейшая соцсеть же.
Здесь настало время «Fake News». Что это такое? Это способ взять новость из личного политического профиля пользуна, из его «окна дискурса», и представить с другой политической стороны. И вот этот метод, как оказалось, работает. Вместо политических новостей социалистического характера наши зарубежные левые друзья начали получать новости, разоблачающие социалистический характер с правых позиций.
Работает это благодаря двум социологическим эффектам:
Первый, «окно дискурса», достаточно известен у начитанных людей. Суть такая: человек готов выслушивать мнения, которые до какой-то степени соотносятся с его мнением. И не воспринимает остальные. Воспринимаемые — это то самое «окно». Если каких-то пограничных мнений в окружении человека становится слишком много, граница «окна дискурса» смещается, чтобы вместить их все. Из-за смещения границы в «окно» попадают всё новые мнения, к которым человек раньше не прислушивался. А граничные мнения с другой стороны — выпадают из «окна» и больше не воспринимаются.
Второй: «спираль молчания». Чуть менее известная штука. Основа в том, что человек более склонен высказывать нечто, если что-то подобное уже звучит в его окружении. Система опирается на исследования Милгрема, связанные с подчинением авторитету, но авторитетом выступает общество вокруг человека, а не конкретный другой человек. Эта система позволяет наиболее крикливому меньшинству навязывать своё мнение большинству. Большинство при этом думает, что они в меньшинстве. Система называется спиралью, ибо, со временем, из обрабатываемой среды всё новые голоса согласного меньшинства включаются в хор подпевал, а большинство продолжает подавленно молчать. Давление на большинство усиливается по спирали.
В алгоритмической пропаганде необходимо:
# Дать человеку те новости, которые находится в круге его интересов, в «окне дискурса». Заложив туда граничные положения, которые это окно сместят.
# Показать, что это — единственные новости, которые есть, тем самым включая механизм «спирали молчания».
Получается опасная техника, которая легко перемалывает неокрепшие умы пользователей соцсетей, вдруг пришедших за политикой. Основная проблема в том, что работает сия техника на основе алгоритма, автоматически. Не нужно больше создавать СМИ с различной степенью уклона, чтобы постепенно менять дискурс. Алгоритм сам определит, какая новость сейчас окажет наибольшее влияние, а какую стоит придержать для следующих витков спирали.
Благодаря нашим профилям в соцсетях и информации о посещённых сайтах (вы же знали, что каждая кнопочка соцсети на сайте следит за вами?), продвинутые алгоритмы легко определяют не только политические взгляды, но и динамику этих взглядов во времени. На основе этой информации и будет вестись алгоритмическая пропаганда. Всё, что остаётся политическим заказчикам и рекламодателям — создавать больше контента с разной степенью «дискурсивности». Остальное сделает машина.
Способов противодействия алгоритмической пропаганде два, по одному на каждый аспект:
— Создание материалов, которые будут заведомо опровергать критику. Зачастую, это «заведомо» делается в сатирической форме.
— Распространять материалы альтернативными способами. Политический материал, не подходящий задачам рекламодателей соцсети, будет опущен алгоритмом в самый низ рейтинга. Через поиск или ленту его увидят единицы.
Соцсети, отметившиеся в применении алгоритмической пропаганды:
Google +
YouTube
ВКонтакте (с недавних пор)
Инструменты которые можно посоветовать:
DuckDuckG*.Поисковик, который пока что не был замечен в подобном отслеживании. Единственный способ сегодня искать политические новости.
M*zilla Firefox. Браузер, который не сливает информацию «куда надо».
Gh*stery. Дополнение к браузеру, мешающее следить за вами. Соцсетям в том числе.