Чи залишились у коментах живі люди?

00:00,
4 Березня 2011
1561

Чи залишились у коментах живі люди?

00:00,
4 Березня 2011
1561
Чи залишились у коментах живі люди?
Форуми, блоги та коментарі онлайн-ЗМІ наповнили штучні думки, генеровані ботами та купленими за копійки коментаторами. Як відрізнити їх від щирих відгуків живих користувачів – і як боротися з цим явищем?

Редакція «Телекритики» на практиці пересвідчилась – якщо опублікувати критичний матеріал із ключовими словами «НТКУ»або«Перший національний», у перші ж півгодини в коментарі приходить купа людей із позитивним баченням сучасного і майбутнього цього каналу, яке вони викладають у розлогих оптимістичних абзацах. Оскільки коментарів до решти текстів зазвичай не так багато, та й усереднити їх можна до «Пєтя лох, звільнив мене у 93-му, ЗМІ його лайно, і коханка йому зраджує з собакою», то в чуйній колективній редакційній душі росте прагнення більше писати для цього вдячного читача, якого цікавить винятково Перший національний. Але напрацьована роками журналістська інтуїція шепоче: «Щось тут не так…». Це лише один приклад із багатьох, коли стикаєшся зі «штучним інтелектом із позицією». Британський письменник і громадський активіст Джордж Монбйо теж розбирався в питанні і написав із цієї тематики низку статей для The Guardian. Її перекладом ми продовжуємо тему кризи анонімного коментування.

 

Анонімність інтернету дає шикарні можливості для операцій із фальсифікування громадської думки – створення видимості, що великі групи людей мають певну позицію щодо конкретного питання, виступають за чи прости чогось. Фальсифікація громадської думки має давню історію, наприклад, тютюнові компанії формували групи з підкуплених людей, щоби впливати на державу,яка намагалася регулювати сферу. Але ніколи до появи інтернету не було настільки легко створювати такі великі фейкові «групи підтримки».

 

Після публікації однієї зі статей із Монбйо зв’язався інсайдер – людина, яка була частиною команди, найнятої корпорацією для відстоювання у форумах її позиції від імені начебто нейтральних користувачів, зацікавлених у продукції компанії. Цей інсайдер один мав близько 70 віртуальних особистостейі писав у різних місцях аргументи на користь «потрібної» позиції, створюючи видимість переконань мас.

 

«Підкуплені» репліки можна розпізнати за кількома ознаками:

 

1)         вони з’являються під публікаціями з питань, де на кону стоять великі гроші. Зазвичай це питання реалізації великих державних проектів, інтереси великих корпорацій;

 

2)         їхні автори відстоюють певні позиції – за інтереси корпорацій, проти регулювання, проти збільшення податків. Держава не платить комусь за обстоювання в інтернеті своїх, зазвичай протилежних, інтересів;

 

3)         діалог із прибічниками іншої точки зору ведеться у «тролячій» манері: намагання забити зверхньою тональністю, аргументами типу «та це ж всім відомо, що…», «я, як і купа моїх знайомих, переконані, що…»; аргументи іншої сторони ігнорують; опонента всіляко намагаються швидше витіснити з інформпростору, щоби думка «троля» залишалася останньою. Сам він, звичайно, з форуму не йде, а логіниться під іншим ім’ям, підтримує себе і попускає співрозмовника з протилежною думкою.

 

Нині спецоперації з фальсифікацій стають автоматизованими і вже поширені у значно більшому масштабі, ніж ми уявляємо – це підтвердили документи, які потрапили в інтернет після зламування хакерами системи американської компанії HBGary Federal, що займається кібербезпекою. Елементи штучного інтелекту, програми з імітації різних стилів письма допомагають ботам створювати «фальшиві інтернет-особистості». Зокрема, документи свідчать про таке:

 

-           корпорації використовують так зване програмне забезпечення для управління личинами, яке примножує зусилля кожної реальної людини, що працює фальсифікатором громадської думки;

 

-           це програмне забезпечення створює всі атрибути реальної людини в інтернеті: ім’я, електронну адресу, свою веб-сторінку та акаунти в соціальних мережах. Автоматична генерація даних для личини відбувається на такому рівні, що фейкову особистість важко відрізнити від реальної;

 

-           програма оновлює профілі, постить тексти і посилання з заданою періодичністю, породжуючи враження реально існуючого активного користувача інтернету;

 

-           справжні люди виходять на арену в останній момент, часто щоби прокоментувати одну-єдину статтю. При цьому в читачів, які заходять на акаунт коментатора, складається враження, що він витратив місяці на дослідження теми, про яку зараз пише, і тому знає її глибоко і не може бути неправий;

 

-           вміле використання соціальних мереж може справити враження, що личина була присутньою на певному заході на кшталт конференції, і вона навіть може «розмовляти» з ключовими спікерами цього заходу. Існує багато засобів підвищення реальності неіснуючого персонажа у соцмережах.

 

 

Вище ми писали, що підкуплені репліки – винахід корпорацій, і держава ними не користується. Так і було – донедавна. Але ось піврічної давнини оголошення на сайті тендерів американського уряду: військово-повітряні сили США шукають «менеджерів личин».До їхніх обов’язків входитиме:

 

А) за допомогою ПЗ створити і вести одному менеджерові 10 личин, із бекґраундом, історією, особистими деталями, та забезпечувати постійну кіберприсутність їх, реалістичну географічно та культурно. Личини повинні мати можливість виникати по всьому світі та комунікувати за допомогою онлайн-сервісів та соціальних медіа;

 

Б) програма автоматично забезпечуватиме менеджера випадково обраними айпі-адресами, через які він має входити в інтернет, ці адреси змінюватимуться щодня, «приховуючи сам факт існування операції». Трафік менеджера програма змішуватиме з трафіком інших користувачів з організації, айпі якої використовуватиметься для прикриття;

 

В) менеджери можуть підміняти одне одного у «персонознавстві», програма генеруватиме статичний айпі для кожної персони. Це забезпечить також імідж «людини Х з організації Y, яка постійно пише з роботи про своє незадоволення проблемою Z».

 

Таке програмне забезпечення здатне знищити форум та відведене під коментарі до статті місце як майданчик для конструктивної дискусії. Воно підриває сутність онлайн-демократії. Інтернет – прекрасний дар людству, але водночас це золота жила для лобістів інтересів корпорацій, вірусних маркетологів та політтехнологів на службі в держави, які можуть діяти, не боячись викриття та покарання. Питання: «Що ми можемо зробити, щоб припинити онлайн-фальсифікації громадської думки?» щодня ставатиме актуальнішим і на нього потрібно шукати відповідь.

 

«Медіаграмотність», за матеріалами The Guardian

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
У зв'язку зі зміною назви громадської організації «Телекритика» на «Детектор медіа» в 2016 році, в архівних матеріалах сайтів, видавцем яких є організація, назва також змінена
Fox News
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду