Пропаганда и фейки в систематике операций влияния

Пропаганда и фейки в систематике операций влияния

10:44,
5 Травня 2019
5507

Пропаганда и фейки в систематике операций влияния

10:44,
5 Травня 2019
5507
Пропаганда и фейки в систематике операций влияния
Пропаганда и фейки в систематике операций влияния
Нынешний человек, потерявший способность распознавать фейки в эпоху постправды, стал хорошим объектом для манипуляций. Он перестает быть проблемой и для государств, и для корпораций. Первые легко могут контролировать его политическое поведение, вторые — потребительское.

Никакой инструментарий влияния не существует в одиночестве. Но для того, чтобы выйти на что-то новое и иное, надо подняться на порядок выше и увидеть то общее, что есть в этом и соседнем инструментарии. Пропаганда, фейки, политтехнологии, — все это, как и многое другое, сходится под шапкой операций влияния. Можно отметить такие общие характеристики этих вроде бы разнородных явлений:

  • массовое сознание как объект воздействия,
  • удержание нужного поведения как цель воздействия,
  • отсутствие защиты у объекта воздействия, поскольку влияние осуществляется через точки уязвимости.

Перед нами во все десятилетия развиваются просто вариации основных компонентов: акцент на коммуникаторе, на месседже, на медиа, на получателе. Последние изменения мы видим в форме микротаргетинга (сегодня один из создателей этого подхода Косински называет его психологическим таргетингом; см. тут и тут; что более точно отражает его суть), в котором индивидуализация месседжа соединилась с индивидуализацией получателя с помощью информации из соцсетей. И это принесло серьезные результаты. А соцсети стали и источником информации о потребителе, и одновременно медиа, которое способно передать нужное сообщение моментально огромному множеству людей. Метод воздействия оказался столь успешен, что даже привел к почти бесконечной череде скандалов (см. тут и тут). Интересно, что сами пользователи считают определение их политических предпочтений Фейсбуком правильным (73 %) и только 27 % рассматривают этот результат как неверный.

Религия или идеология осуществляют свое влияние через эксплуатацию сакрального. Это выгодный инструментарий, поскольку ему нельзя возражать. Любой бог стоит вне критики, как и Ленин-Сталин-Маркс-Энгельс в советской модели идеологии. Их можно только хвалить, но нельзя ругать.

Сегодняшняя власть также сакрализует себя, борясь, к примеру, с отрицательными оценками своей деятельности. Власть, в принципе, не занимается тем, что обещает на выборах. Британия, наоборот, создает в правительстве отдельный отдел, который отслеживает эту работу, поскольку это «метрика» в их конкурентной политике.

Создание сакральности в пропаганде может быть направлено либо на поднятие событий, либо на поднятие на постамент людей. Это наглядно видно при смене политических режимов, когда в результате меняются как списки базовых событий, так и списки значимых людей. То есть создаются точки сакральной истории и люди-герои, которые принимают в этих событиях участие.

Чтобы осуществить социальные изменения, надо вести постоянную работу, иногда на это уходят годы и десятилетия. Либеральная экономика, например, приходит в мир как результат работы созданных под эти цели нескольких сотен think tank'ов. Это были первые опыты вообще функционирования think tank'ов, острие их действий было направлено на публичных интеллектуалов, которые, в свою очередь, общались с населением. Этот проект запустил в мир Хайек, в результате сделали переход на его тип экономики Тэтчер и Рейган после их государственного капитализма, а сам он получил Нобелевскую премию.

Все это использование того или иного типа информационного потока. Но поскольку сегодня с помощью социальных медиа появился даже не поток, а целый медийный океан, то естественно, что информационные интервенции также сместились туда. Открытость соцмедиа позволяет незаметно воздействовать даже из-за рубежа. В мире насчитали более сорока таких информационных интервенций со стороны России. Самые известные среди них: американские и французские президентские выборы и два референдума (Брекзит и Каталония).

Модель информационного вмешательства носила следующий характер. Фейковые аккаунты создавались в рамках поляризованных сообществ, где можно было во взаимодействии с реальными людьми нарабатывать доверие. Получив его, через этот канал вводились или усиливались разделяющие нарративы.

Если американский политический ландшафт состоял из таких разноцветных «пузырей», где варились в своем соку одинаково думающие, то анализ российского варианта дал картину, где про- и антипутинские кластеры объединялись проправительственными и ориентированными на дискуссию аккаунтами.

Интересно, что опрос населения России января 2019 года показывает смещение источника новостной информации от телевидения к интернету (см. также тут). Телевидение с 87 % в 2010-м дало в 2019-м 71%, новостные сайты интернета выросли — с 13 до 44 %, разговоры с родственниками как источник новостей упали с 22 % до 17 %. Но все равно 88 % смотрят телевидение и 10 % не смотрят вообще. И решающее слово в том, о чем говорить, а о чем молчать на российском ТВ, принадлежит не Соловьеву или Киселеву, а Громову (см. подробности организации этого управления из Администрации президента).

Любой информационный поток одновременно является инструментарием искажения, поскольку мы меняем картину мира, задавая своими сообщениями и иную частоту событий в реальности. Если я смотрю, например, известных два канала и вижу там Рабиновича и Бойко, то они меняют в моей голове список претендентов на президентское кресло. То есть изменение информационной реальности ведет к изменению физической реальности для того, кто является потребителем этой информационной реальности.

Эпоха постправды облегчила ситуацию воздействия и влияния, поскольку факт и мнение потеряли между собой существенные различия. Получилось разнообразие информационных объектов, которые особо не различимы по степени достоверности. Но зато все они эксплуатируют фактор привлечения внимания к себе, что стало особо важным в ситуации избытка информации.

Соцмедиа привели, с одной стороны, к так называемым информационным пузырям, когда мы потребляем ту информацию, которая для нас наиболее комфортна, поскольку Фейсбук дает нам то, что пишут наши друзья. С другой — произошла поляризация представлений людей, они теперь не в состоянии признать другую точку зрения, хотят повсюду слышать только свою. Поляризация активно используется в политических кампаниях.

Уход от интернета не спасает от проблем, поскольку это проблемы человека, а не интернета. Как справедливо подчеркивают исследователи: «Нельзя уйти от интернета, потому что вы и есть интернет». А наши слабости активно используют корпорации, технические гиганты, ставшие монополистами этого рынка, что позволяет им диктовать нам свои правила.

Сейчас появилось исследование одного из «скрытых» основателей Фейсбука Аарона Гринспена (см. о нем тут и тут). Здесь он говорит о том, что половину пользователей, то есть один миллиард, в нем составляют боты. Но Фейсбук никогда не сознается в этом, поскольку он продает рекламу и этим фиктивным людям.

Гринспен, который в свое время получил «отступные» от Цукерберга, видимо, все же продолжает быть обиженным. В этом своем тексте он констатирует, что компания потеряла контроль за своим продуктом (см. также тут и тут), акцентируя следующее:

  • реклама продается на два миллиарда пользователей, а их нет,
  • это обман рекламодателей, но прибыль для Фейсбука, поэтому он не ищет фальшивые аккаунты,
  • фальшивые аккаунты обманывают других пользователей, создавая обманные коммуникации с ними.

Ускоренное строительство мира Фейсбука, как мы видим, демонстрирует множество неучтенных конструктивных ошибок. Технологически и бизнесово идеальная модель в то же время вошла в несвойственную ей функцию быть медиа.

Кстати, Гринспен напоминает известный факт финансового присутствия России в Фейсбуке в объеме 200 миллионов долларов. И это инвестиции компании Мильнера, за которым стоит Алишер Усманов. Однако в 2017 году проект исследовательской журналистики вскрыл, что реально это деньги российского государственного банка ВТБ, который власти используют для политических сделок. Он к тому же получил американские санкции в 2014 году

Камилла Франсуаза, работавшая в Гугл, а сейчас в «Графике», анализируя работу троллей, подчеркивает, что они не только из России, но и из Индии, Эквадора, Мексики. Вспомним, что до этого называлась и Македония как центр по порождению фейковых сообщений. Но там это было чисто коммерческим проектом — зарабатыванием денег на рекламе со своего раскрученного фейковыми новостями сайта (см. тут, тут, тут, тут, тут и тут). Причем здесь люди зарабатывают и после выборов. В небольшом городке в этой индустрии фейков работает 300 человек.

Тролли политических проектов изучают американскую жизнь по телесериалам, например, по «Карточному домику». Эта информация сразу напомнила и совет Путина Шойгу — смотреть «Карточный домик», чтобы понимать американскую политику.

Франсуаза говорит, что операции фермы троллей не похожи на жестко контролируемые сверху, они скорее стараются походить на разнообразие, свойственное толпе людей, сидящих в соцмедиа. Они получают инструкции, о чем писать сегодня, что опровергать. При этом некоторые аккаунты были открыты еще в 2009 году и закрыты лишь в 2018-м. То есть у части аккаунтов есть даже своя история. Они достаточно долго учились поляризовать пользователей своими постами.

Важным в анализе является понимание того, достигают ли тролли успеха или разговаривают сами с собой. Исследователи сравнили российское влияние в случае американских президентских выборов и французского движении желтых жилетов. Первая кампания была явно успешнее. Здесь российские комментаторы были в центре обсуждений, практически управляя ими. В случае Франции этого не происходило.

Однако протесты «желтых жилетов» все еще не имеют окончательного понимания. Кто-то продолжает искать там русский след, а кто-то отрицает его (см. тут, тут и тут). Выдвинута и гипотеза, что это является результатом изменения алгоритма Фейсбука. Фейсбук дает теперь новости от друзей и знакомых, а также получастных групп. И именно эта структура стала организационной для желтых жилетов.

Серьезной проблемой остаются боты, поскольку именно они являются источником вирусных сообщений, а человек выступает чаще в роли простого ретранслятора. Анализ показывает, что большой объем трафика дезинформации порождает малое число аккаунтов. Выделены следующие манипуляционные стратегии ботов (см. тут и тут):

  • боты наиболее активны в усилении фейков на ранних моментах, когда они еще не вышли на вирусный уровень,
  • боты нацелены на влиятельных пользователей с помощью ответов и упоминаний,
  • боты прячут свое реальное географическое местоположение.

Сегодняшний человек, потерявший способность распознавать фейки в эпоху постправды, стал хорошим объектом для манипуляций. Он перестает быть проблемой и для государств, и для корпораций. Первые легко могут контролировать его политическое поведение, вторые — потребительское.

Исследователи увидели цель создания поляризации избирателей в российских информационных интервенциях в американские выборы, что реализовалось по таким направлениям:

  • призывать афроамериканских избирателей бойкотировать выборы,
  • подталкивать праворадикальных избирателей к более конфронтационной риторике,
  • распространять сенсационные, конспирологические и другие формы мусорных политических новостей.

Более конкретные цели для консервативных избирателей включали следующее:

  • повтор патриотических и анти-иммигрантских слоганов,
  • возмущение по поводу либерального отношения к «другим» за счет американских граждан,
  • призывы голосовать за Трампа.

Часто возникала направленность на увеличении поляризации между консерваторами и либералами, например, по поводу мигрантов, ЛГБТ-сообщества или владения оружием. «Изменения картины мира» являются плохим маркером для избирателей Трампа, которые хотят сохранить старую Америку.

Результирующие после американских выборов подсчеты дали цифру в 70 % автоматических аккаунтов среди наиболее частотно перепечатываемых другими. Другие исследования также подтверждают, что экосистема фейковых новостей носит концентрированный характер. В этом плане интересна инициатива Твиттера маркировать специальным знаком оригинальный твит, с которого начинается вирусное распространение.

Для описания действий России сегодня предложена новая модель, где Россия использует обстоятельства по мере их возникновения для достижения своих стратегических целей. Эту модель обозначили термином мягкая стратегия (см. работу: Cohen R.S. a.o. Russia’s Hostile Measures in Europe Understanding the Threat. — Santa Monica, 2019 / RAND). Она отличается от нашего обычного понимания стратегии, когда есть промежуточные цели и ожидания от конкретных действий. Поскольку от подобного рода действий не ожидается четких результатов, Россия запускает множество таких действий на разных направлениях. Они не столько несут какой-то конкретный планируемый результат, как создают варианты для следующих возможных шагов.

И еще несколько интересных замечаний из этой попытки РЭНД увидеть определенный инструментарий за тем, что на поверхности выглядит как хаос. Они таковы:

  • конкретная деятельность России необязательно указывает на конкретную стратегию, например, поддержка национального фронта во Франции не означает того, что это реализуется путь получить влияние на НАТО, хотя логически он может и казаться таким;
  • не следует конкретные действия связывать только с одной возможной целью, например, воздействие на Болгарию — это одновременно и экономическое влияние в качестве цели, и влияние на поведение Болгарии в рамках ЕС и НАТО для подрыва там консенсуса.

Поскольку цели и инструментарий имеют много интерпретаций, чтобы не сказать, что они достаточно расплывчаты, предлагается также анализ с точки зрения степени управляемости со стороны России задействованных в этих операциях акторов. Их три:

  • контроль актора как степень следования приказам или выраженным желаниям, например, есть организации типа французского Национального фронта, которые получают финансирование, но реально не контролируются, умеренный контроль возникает и в случае групп, которые получают финансирование или которые можно принудить повиноваться другими способами, например, шантажом,
  • совпадение интересов, при таком совпадении нет нужды осуществлять серьезный контроль,
  • степень влияния как способность индивида или группы реально влиять на политику в своей стране в пользу России, например, финансируемый Россией западный think tank имеет мало возможностей, однако у ставшего во главе Венгрии Виктора Орбана много таких возможностей.

Наш мир позволяет усиливать все: скорость, высоту, мощность... Соответственно усиление получили и фейки, которые в виде, например, слухов могли реализоваться и в прошлом. В использовании слухов обвиняли, например, Андропова, когда он двигался на вершину власти и отодвигал своих конкурентов (Гришина из Москвы и Романова из Ленинграда (см. тут, тут и тут).

Теперь фейки стали и сильнее, и убедительнее. Но параллельно с этим не выросла критичность населения, которое, наоборот, еще и потеряло то немногое из такого инструментария, что имело, поскольку перестало читать печатную книгу, а перешло на экранную. Эта замена глубинного чтения на поверхностное отражается на способности критически относиться к получаемой информации.

 

Литература

1. Matz S.C. a.o. Psychological targeting as an effective approach to digital mass persuasion // www.pnas.org/content/114/48/12714

2. Supplementary Information Appendix // www.pnas.org/content/pnas/suppl/2017/11/07/1710966114.DCSupplemental/pnas.1710966114.sapp.pdf

3. Cadwallandr C. a.o. How Cambridge Analytica turned Facebook ‘likes’ into a lucrative political tool // www.theguardian.com/technology/2018/mar/17/facebook-cambridge-analytica-kogan-data-algorithm

4. Cambridge Analytica Scandal Casts Spotlight on Psychographics // www.psychologicalscience.org/publications/observer/obsonline/cambridge-analytica-story-casts-spotlight-on-psychographics.html

5. Hitlin P. a.o. Facebook Algorithms and Personal Data // www.pewinternet.org/2019/01/16/facebook-algorithms-and-personal-data/

6. Kelly J. a.o. This is what filter bubbles actually look like // www.technologyreview.com/s/611807/this-is-what-filter-bubbles-actually-look-like/

7. Источники новостной информации // bd.fom.ru/pdf/d03ini2019.pdf

8. СМИ: востребованность и оценки работы // fom.ru/SMI-i-internet/14028

9. Рубин М. Повелитель кукол. Портрет Алексея Громова, руководителя российской государственной пропаганды // www.proekt.media/portrait/alexey-gromov/?fbclid=IwAR3GWSAdVvB84zyGP3xblhoVCHG8Mq70wUPz4pgT53hgoKIkUlUsgbSLz0c

10. Bay M. Quitting the internet won't solve its problems, because they're reflections of the problems with humans // www.nbcnews.com/think/opinion/quitting-internet-won-t-solve-its-problems-because-they-re-ncna963261

11. Marshall M. Who founded Facebook? Aaron Greenspan says he came up with the idea first // venturebeat.com/2007/09/02/who-founded-facebook-aaron-greenspan/

12. Danzig C. Facebook Litigation Continues: A Closer Look at Aaron Greenspan // abovethelaw.com/2012/06/facebook-litigation-continues-a-closer-look-at-aaron-greenspan/

13. Greenspan A. Reality check. Facebook, Inc. // www.plainsite.org/realitycheck/fb.pdf

14. Palmer A. Facebook denies bombshell report from former classmate of Mark Zuckerberg that says the site hosts over a BILLION fake accounts // www.dailymail.co.uk/sciencetech/article-6632871/Former-classmate-Mark-Zuckerberg-claims-site-hosts-1-billion-fake-accounts.html

15. Носков А. «Половина активных пользователей Facebook — боты» // hightech.plus/2019/01/25/polovina-aktivnih-polzovatelei-facebook---boti

16. Fazzini K. This former Google exec talked to the social media trolls the Russians paid to influence elections — here's what she learned// www.cnbc.com/2019/01/27/ex-google-exec-camille-francois-russian-trolls.html?fbclid=IwAR1nHd02jSDGgPbcYmHYgGbN69rFpgOX-vddeSx8ww688hr74ROGc0lfqqk

17. Subramanian S. Inside the Macedonian fake-news complex

// www.wired.com/2017/02/veles-macedonia-fake-news/

18. The fake news machine // money.cnn.com/interactive/media/the-macedonia-story/

19. Kirby E.J. The city getting rich from fake news // www.bbc.com/news/magazine-38168281

20. Fake news websites // en.wikipedia.org/wiki/Fake_news_website

21. Read M. Can Facebook Solve Its Macedonian Fake-News Problem? // nymag.com/intelligencer/2016/11/can-facebook-solve-its-macedonian-fake-news-problem.html

22. Smith A. a.o. Fake News: How a Partying Macedonian Teen Earns Thousands Publishing Lies // www.nbcnews.com/news/world/fake-news-how-partying-macedonian-teen-earns-thousands-publishing-lies-n692451

23. Matlack C. a.o. France to Probe Possible Russian Influence on Yellow Vest Riots // www.bloomberg.com/news/articles/2018-12-08/pro-russia-social-media-takes-aim-at-macron-as-yellow-vests-rage

24. Newton C. Facebook’s role in the French protests has polarized observers // www.theverge.com/2018/12/11/18135273/yellow-vest-facebook-france-protests

25. Berlinski C. How Putin and the Far Right Played the Paris Yellow Vests Protests // www.haaretz.com/world-news/.premium-how-putin-and-the-far-right-played-the-paris-yellow-vests-protests-1.6743555

26. Read M. Did Facebook Cause Riots in France? // nymag.com/intelligencer/2018/12/did-facebook-cause-the-yellow-vest-riots-in-france.html

27. Shao C. a.o. The spread of fake news by social bots // www.researchgate.net/publication/318671211_The_spread_of_fake_news_by_social_bots

28. First Evidence That Social Bots Play a Major Role in Spreading Fake News // www.technologyreview.com/s/608561/first-evidence-that-social-bots-play-a-major-role-in-spreading-fake-news/?fbclid=IwAR2GEHDUl8OUMtEhPjfOctwk3Xozja_QbHLpcWLkGq6P5JGS1464DjLr-RQ

29. Howard P.N. a.o. The IRA, Social Media and Political Polarization in the United States, 2012-2018 // comprop.oii.ox.ac.uk/wp-content/uploads/sites/93/2018/12/The-IRA-Social-Media-and-Political-Polarization.pdf

30. Disinformation, 'Fake News' and Influence Campaigns on Twitter // kf-site-production.s3.amazonaws.com/media_elements/files/000/000/238/original/KF-DisinformationReport-final2.pdf

31. Newcomb A. Twitter is testing a new way to determine where a tweet started // www.nbcnews.com/business/business-news/twitter-testing-new-way-determine-where-tweet-started-n962426

32. Cohen R.S. a.o. Russia’s Hostile Measures in Europe Understanding the Threat. — Santa Monica, 2019 / RAND

33. Швед В. Византийские интриги в Кремле // www.stoletie.ru/versia/vizantijskije_intrigi_v_sovetskom_kremle_909.htm

24. Колобродов А. Парадоксы Андропова // vz.ru/opinions/2017/9/11/886633.html

35. Шевелев Э. Подвижник социализма // www.sovross.ru/articles/1657/37939/comments

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
www.hrlact.org
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
Veronawju
14:44 / 24.11.2021
Могу я связаться с администрацией? Это важно. Спасибо.
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду