Потрапити в бульбашку. Чи справді Фейсбук нав’язує нам певний світогляд?

Потрапити в бульбашку. Чи справді Фейсбук нав’язує нам певний світогляд?

12:05,
15 Листопада 2018
9253

Потрапити в бульбашку. Чи справді Фейсбук нав’язує нам певний світогляд?

12:05,
15 Листопада 2018
9253
Потрапити в бульбашку. Чи справді Фейсбук нав’язує нам певний світогляд?
Потрапити в бульбашку. Чи справді Фейсбук нав’язує нам певний світогляд?
Після президентських виборів у Сполучених Штатах 2016 року було чимало розмов про соцмережі та їхню роль у демократичних процесах. Серед них були звинувачення, спроби держав притягнути до відповідальності й контролювати Facebook і Twitter. Як еволюціювали соцмережі та чи справді вони впливають на політичний світогляд користувачів?

«З’єднати світ», — так звучить місія Facebook. Щомісяця в соцмережі 2 млрд активних користувачів, і важко уявити віртуальне чи реальне місце на планеті, де можна було б одночасно зібрати стількох людей. Утім, це геть не означає, що всі ці люди справді перебувають у межах одного простору, спілкуються на рівних та поділяють спільні інтереси. Facebook нагадує радше реальний світ із поділом на країни, нації, конфесії — й це цілком нормально. Соцмережа складається з великої кількості так званих соціальних бульбашок, які можуть навіть не здогадуватися про існування одна одної.

Поговорімо про бульбашки

Чому і як так склалося, спробував пояснити американець Елі Перізер, виконавчий директор сайту Upworthy. У 2011 році він написав книжку The Filter Bubble («Бульбашка фільтрів») про те, що сучасні інтернет-платформи стежать за користувачами й використовують алгоритми, щоби вгадати, що ми захочемо побачити наступної миті. Так, YouTube після перегляду пропонує схожі відео, а Amazon нагадує, що невдовзі закінчиться туалетний папір і можна купити ще. Зручно.

Втім, ситуація трохи інша, коли ці ж алгоритми намагаються підказати, що важливо й варто нашої уваги. Якось Перізер провів експеримент зі своїми друзями: він попросив їх загуглити слово «Єгипет» і надіслати йому скриншоти отриманих результатів. Як виявилося, на екранах вони бачили різну інформацію: одні — новини про теракти, інші — пропозиції інвестувати в країну. Google пропонує результати, виходячи з наших попередніх пошуків, поточної локації, мови інтерфейсу — це називається персоналізацією. Такий же принцип діє в більшості сучасних платформ, які поширюють інформацію.

У 2006 році Facebook отримав те, без чого його сьогодні не уявити, — стрічку новин. Ще за п’ять років кількість користувачів соцмережі сягнула 500 млн, а потік інформації, картинок, відео продовжує зростати з геометричною прогресією. Компанія зрозуміла кілька речей: по-перше, людина фізично не здатна прочитати все, що постять її друзі, по-друге, не кожна інформація варта нашої уваги. Так з’явилися перші спроби персоналізувати стрічку новин, показуючи спочатку найцікавіший і найрелевантніший контент.

У чому проблема?

Теорія Перізера полягає в тому, що ми — як користувачі соцмереж — потрапляємо в ізоляцію та полон власних уподобань. Кожна наступна картинка чи відео, які ми бачимо сьогодні, — це відображення наших лайків та репостів учора. Коли справа стосується політичних дебатів у соцмережах, то наше оточення поступово стає все більш однорідним, а людей, які мають схожі переконання, ми бачимо частіше за тих, які належать до протилежного політичного полюсу. А це підриває основи для демократичних дебатів. Принаймні так міркує той же Елі Перізер. У мережі є відео його виступу на конференції TED, де він закликає остерігатися алгоритмів та їхніх рішень щодо того, що нам читати сьогодні. На цьому розмови про бульбашки фільтрівне закінчилися.

У 2013 році науковці з Microsoft Research проаналізували, як американці читають новини онлайн. Вони взяли інформацію про те, за кого голосували мешканці різних регіонів на президентських виборах США у 2008 році. Потім порівняли цю інформацію із трафіком на новинних сайтах. Виявилося, що 81 % консерваторів читає джерела з консервативними поглядами й лише 6 % — ліберальні новини. Серед останніх ситуація схожа: 76 % читають своє, а 4 % поглядають, що пишуть на іншому боці політичного спектру. Дослідження вийшло неідеальним, але показовим. Так і почали говорити про бульбашки фільтрів, але вже в суто наукових колах. У масовій свідомості ця тема або взагалі не знаходила відгуку, або зупинилася на стадії розуміння, що алгоритми в медіа — це шкода для демократії.

Що відомо сьогодні?

Науковці в різних країнах світу почали робити свої дослідження. Усім хотілося мати якісь дані, щоби сміливо робити висновки: Facebook винен чи ні.

У 2016 році американський дослідний центр Pew Research Institute опитав користувачів соцмереж про те, хто входить до їхнього онлайн-кола спілкування. 53 % опитаних розповіли, що вони бачать у своїх стрічках новин людей із різними поглядами. Лише 23 % відповіли, що політичні бачення їхніх друзів у мережі схожі на їхні власні. Ба більше, четверо з десяти зізналися, що змінювали налаштування своїх стрічок відповідно до своїх вподобань, а 20 % усіх опитаних навіть змінили свої погляди через інформацію, яку вони отримали в соцмережах. Того ж року дослідники з Reuters Institute при Оксфордському університеті відкрили ще одну цікаву залежність: люди, які користуються соціальними мережами, мають доступ до більшої кількості джерел інформації, ніж люди, які залишаються офлайн. Вже щось не складається з цими вашими бульбашками фільтрів.

2017 рік. Дональд Трамп став президентом, а дослідники з Гарварду вирішили поглянути на те, що коїлося з новинами під час виборчих кампаній. Вони проаналізували, які ресурси користувачі Facebook та Twitter поширювали, й помітили, що інформацію, яку поширював Breitbart (онлайн-платформа новин із правими поглядами), легко підхоплювали й інші ресурси зі схожою ідеологією. Ситуація на протилежному боці політичного спектру або в центрі була іншою: набагато більше медіа продукували власні матеріали, тому інформація була не такою однорідною. Здавалося б, можна робити висновок про те, що існують окремі соціальні бульбашки, які не бачать інформацію з інших бульбашок. Утім, автори дослідження вважають, що алгоритми соцмереж відіграли тут незначну роль. Вони стверджують, що саме люди робили свідомий вибір і поширювали інформацію, яка точніше відповідає їхнім поглядам.

Остання думка має більше сенсу, якщо поглянути на ще один термін — ехо-камери (echo chambers). Це явище схоже на бульбашку фільтрів, але з’явилося раніше й не стосується інтернету. Суть ехо-камер полягає в тому, що людям притаманно вірити в інформацію в тому вигляді, в якому вони почули її вперше, і змінити ці погляди в подальшому буде складно. Тому цікавіше читати новини, які доводять, що наші погляди правильні, а не ставлять їх під сумнів.

І що?

Згодом Елі Перізер переглянув свої погляди. Він проаналізував результати дослідження, яке проводив Facebook, і визнав, що стрічка новин формується в першу чергу завдяки поведінці користувачів, а не алгоритмам. Свідомо чи ні, ми впливаємо на те, що бачимо наступним. Аби якість цього контенту зростала, нам доведеться відповідально ставитися до вибору джерел інформації, яку ми споживаємо, та інколи виглядати за межі власних соціальних бульбашок.

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду