Модерація під час війни: за що соцмережі видаляють дописи українців
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Модерація під час війни: за що соцмережі видаляють дописи українців
21 червня Центр демократії та верховенства права провів публічну онлайн-дискусію про перевірку інформації «Модерація соціальних мереж під час війни: чи винесені уроки?». Експерти обговорили наслідки модерації контенту в соціальних мережах під час війни в Україні, випадки блокування акаунтів, чи бувають вони безпідставними та як це впливає на права користувачів і свободу слова. Також експерти обговорили, як можна змінити підходи до модерації з урахуванням українського локального контексту.
За словами директорки Центру демократії та верховенства права Олесі Холопік, чимало користувачів, зокрема журналістів і блогерів, часто стикаються з блокуванням і видаленням дописів, блокуванням акаунтів і змушені годинами листуватися зі службами підтримки соціальних мереж, щоб з'ясувати, чи відповідають публікації правилам соцмереж.
«На жаль, це лише невеличка частинка айсберга проблем, які існують у результаті модерації контенту, і ми вважаємо, що сьогодні дуже важливо оцінити наслідки її впливу на споживачів інформації. Треба зрозуміти, як держава, користувачі соцмереж і самі соцмережі можуть співпрацювати в подоланні цього виклику. Ми маємо подумати, як пояснювати соціальним мережам, їхнім компаніям контекст, у якому перебуває Україна», — зазначила Олеся Холопік.
- Читайте також: «Опора» дізналася, які новини в месенджерах та соцмережах найчастіше читають українці за кордоном
Директорка ЦЕДЕМ повідомила, що їхня команда розпочала проєкт, спрямований на дослідження впливу модерації контенту соцмереж, основна мета якого — вдосконалити алгоритми та зробити цей процес більш справедливим.
Заступник директорки ЦЕДЕМ та медіаюрист Ігор Розкладай зазначив, що протягом останніх дев'ятьох років українські користувачі продуктів Meta (Facebook, Instagram, WhatsApp) та Alphabet (Google, YouTube) стикалися з тим, що зникали профілі та весь напрацьований контент. Однак 2022 рік як ніколи проявив цю проблему, коли медіа отримували бани за показ реалій війни. Це входило в конфлікт із правилами соцмереж, які виявилися до цієї війни не готові.
Запрошені до дискусії спікери розповіли про свої випадки блокування соцмереж. Директорка департаменту цифрового контенту та соцмереж Суспільного мовлення Олександра Чернова повідомила, що розгалуженість у соцмережах регіональних філій Суспільного, окремі сторінки про спорт та культуру, з одного боку дозволяють урізноманітнити контент і підтримувати філії, а з іншого — дозволяють проблемам однієї сторінки зачіпати інші, адже всі вони взаємопов’язані.
«Ми намагаємося зробити так, щоб весь наш контент був user friendly та щоб він був розпакований на максимальну кількість придатних для цього сторінок. Тобто ми намагаємося один фільм розпакувати і в тікток, і у телеграм, фейсбук, інстаграм тощо. В регіональних філіях дуже багато неймовірних історій, часто пов’язаних із війною або з документуванням воєнних злочинів. Контенту чимало, і ми обмінюємося ним між різними сторінками. В цьому і мінус: ми дуже сильно пов'язані один з одним, тож коли є проблема однієї сторінки, можуть бути наслідки для інших», — пояснила Олександра Чернова.
Нещодавно центральним сторінкам Суспільного заблокувати монетизацію через те, що Google не міг прив’язати всі необхідні документи до гаманця. «Google насправді погано розуміє, що означає "акціонерне товариство", і треба було довести, що ми справжня компанія. Для цього необхідно було прив’язати документи реального менеджера. Я як директорка дала свій паспорт, у якому вказано, що він був отриманий у Слов’янську. Власне, нам заблокували монетизацію, тому що я з Донецької області. І тепер ми доводимо Google-підтримці, що я не сепаратистка, а Слов’янськ — це Україна», — розповіла Олександра.
Це не єдиний випадок блокування контенту Суспільного. YouTube заблокував відео одного з шоу, коли під час опитування людей про їхнє ставлення до росіян дехто сказав, що «хороші росіяни — це мертві росіяни». За словами Чернової, відео було заблоковано наступного дня після публікації за мову ворожнечі, хоча це були слова людей, а не ведучої. В результаті відео перезалили з дисклеймером. Такі історії були і з компанією Meta, коли пост Суспільного заблокували за сюжет про дитячий табір, у кадр якого потрапив прапор Галичини, який фейсбук прийняв за нацистську символіку. Схожі ситуації були і з символікою військових «Азова». Також соцмережі маркують як мову ворожнечі слова «москалі» та «кацапи», навіть якщо так кажуть герої сюжетів. Редакції намагаються вирізати або «запікати» такі моменти, але частіше менеджерам доводиться знову пояснювати підтримці соцмереж український контекст.
Блогерці та засновниці Youtube-проєкту Ragulivna Тетяні Микитенко взагалі довелося відновлювати свій канал після видалення. Вона розповіла, що за 4 місяці до повномасштабного вторгнення вона провела етер про те, як Росія активізується через ліберальну журналістику, зокрема через фільм Іллі Варламова про Україну. Він робив серію випусків про пострадянські республіки та привчав аудиторію до думки про спільне з Росією майбутнє.
«Це був дуже емоційний етер, і після нього мій YouTube-канал видалили без попереджень. Ми, не приховуючи емоцій, розбирали ті маніпуляції, які відбуваються з нами через ліберальних російських журналістів. Псевдоліберальних, тому що насправді в російському медійному просторі немає людей, які не працюють на утримання Росії в цілому форматі», — каже блогерка.
Після відновлення каналу виявилося, що він був видалений через дві скарги на мову ворожнечі у двох відео, хоча кількість контенту на той момент уже складала більше сотні.
«Якщо тебе намагаються видалити за всього лише два відео з цієї сотні, то сам сервіс мав би увійти зі мною в якусь комунікацію, однак цього не відбулося. Український контент часто видаляють за мову ворожнечі, але я — блогерка, яка завжди цитує спікерів, про яких говорить. Мені важливо, щоб глядач розумів, що це пряма мова, а не мій переказ. У мене є яскраве відео, де Ілля Кива перед посольством США в Києві тягає за волосся жінку, вдягнену в український віночок, імітуючи, ніби він США, а вона — Україна.
Всі ці фрази, акти насилля в кадрі, зразки абсолютної дегуманізації українців — це зразки того, що нас просто хочуть знищити. Цього дуже багато, це присутнє в моїх етерах як ілюстрація того, що відбувається, як на нас наступають», — пояснює Тетяна Микитенко.
З фейсбуку блогерку двічі видаляли за цитування класичних творів. Наприклад, за публікацію ілюстрації Тараса Шевченка «Казка», адже під малюнком є текст про смерть, яка зустрічається з москалем і питає його, куди він йде, а той відповідає, що до смерті з самої Росії. У пості Тетяна написала, що за 160 років у Росії нічого не змінилося — і фейсбук видалив цю картину, попри те, що це мистецький твір. Інший випадок стосувався цитат Достоєвського, які дуже схожі на міфологію, яку створює Росія зараз. Блогерка запостила уривок із книжки «Брати Карамазови», де є історія про розіпʼятого хлопчика, подібна до тієї, яку поширювали пропагандисти у 2014 році. Фейсбук розцінив допис як мову ворожнечі.
Микитенко радить у таких випадках аналізувати акаунти, від яких надійшли скарги. Тобто якщо акаунт займається лише репостами або тільки скаргами на українські канали, можна зробити висновок, задля чого він був створений.
На її думку, українським контентмейкерам варто комунікувати з представниками Meta й Alphabet, адже разом із видаленням контенту аудиторія втрачає пласт доказів злочинів проти українців. Канали видаляються дуже легко, як українські, так і російські, але ж разом із цим видаляються свідчення про злочини.
Виконавча директорка Інституту розвитку регіональної преси, членкиня Незалежної медійної ради Людмила Панкратова зазначила, що видалення дописів є втручанням у діяльність приватних осіб, які виражають свою свободу думку. Видалення дописів має ґрунтуватися на якихось юридичних підставах.
«Це регулюється міжнародним законодавством, оскільки діють ці платформи в міжнародному праві, і мають бути підстави для того, щоб дописи вважалися такими, що порушують права читачів, глядачів і користувачів. Зокрема це заклики до дискримінації, ненависті або насильства. Також це може бути дитяча порнографія, мова ворожнечі, яка має надзвичайно широкий спектр, але вона завжди має якісь слова-зачіпки, за які насправді і блокують, і видаляють, і навіть закривають цілі канали. Також це може бути дезінформація та пряме публічне підбурювання до геноциду або пропаганда расизму й ненависті», — каже експертка.
Людмила Панкратова зазначила, що обмеження, які використовують соцмережі за перераховані порушення, є доцільними, однак видалення акаунтів або каналів через декілька скарг без врахування контексту є абсурдними, нищать докази та потребують перегляду.
«Наші поступові такі непогодження зі скаргами та блокуваннями нарощують потенціал для пошуку справедливого балансу та для пошуку саме того рішення, яке могло б забезпечити висвітлення Україною та українськими соцмережами правди, блокування дезінформації та неправди, яка ллється з дуже різних інформаційних систем, і власне встановлення більшої справедливості», — додала Панкратова.
- Читайте також: Соцмережі вперше отримали лідерство в розподілі глобального трафіку на новинні сайти, — Digital News Report
Старший юрисконсульт проєкту «Майбутнє свободи вираження поглядів» в Justitia Джоан Барата зазначив, що при модерації контенту всі платформи поважають юридичні рамки кожної території світу. І це є для них великим викликом, адже в кожній країні є своє визначення мови ворожнечі, тероризму чи екстремізму, й платформи можуть поставати перед труднощами при адаптації до різних юридичних рамок різних країн. У багатьох випадках платформи реагують на запити від влади, яка вимагає, щоб контент було видалено, й виконують цю вимогу.
«Національне законодавство деяких країн не завжди відповідає міжнародному гуманітарному праву. Наприклад, у деяких країнах можуть бути закони проти ЛГБТ чи проти політичної критики голови держави. Платформи не тільки регулюють на базі закону, у них також є свої внутрішні правила модерації контенту. Ці правила надзвичайно цікаві, бо вони йдуть поза межами закону. Вони базуються на деякій конкретній бізнес-моделі, наприклад: "моя платформа про розваги, я не хочу там бачити проблематичного контексту, я не хочу там бачити політичної реклами чи політики взагалі". Такий підхід має TikTok, який вважає свою аудиторію молодою і уникає такого контенту.
Дезінформація теоретично не є чимось незаконним, усі мають право ставити питання, наприклад, стосовно вакцин, чи сказати, що Земля є пласкою. Але деяким платформам така дезінформація не подобається, і під час пандемії ми побачили, що люди, які ставили під сумнів існування ковіду, ефективність лікування, чи люди, які вірять у пласкість Землі, — зазнали регуляції чи санкцій з боку платформ.
Тож чи є у платформ право це робити? Відповідно до юридичної системи – так, вони не тільки мають право модерувати контент, платформи штовхають до створення внутрішніх правил, які ширші за законодавства», — каже Джоан Барата.
Він підкреслив, що Акт про цифрові послуги Євросоюзу стверджує, що платформи мусять модерувати контент. Також у цьому акті, коли йдеться про оцінку системних ризиків і про їх подолання, ці платформи зобов'язуються регулювати та модерувати контент за межами чинного законодавства. Соцмережі не лише модерують, а й курують контент, коли рекомендують користувачу саме той контент, який відповідає його смакам, аби цією платформою користувалися ще більше людей.
Водночас в Акті про цифрові послуги немає визначення, що саме прийнятно і не прийнятно в соцмережах, але цей акт створює певний набір правил щодо прав користувачів і процедур, яким вони мають слідувати при модерації контенту. Кожен повинен мати змогу прочитати ці правила, і соцмережі мають поважати принципи відповідальності та пропорційності. Наприклад, якщо щось видаляється з вашого акаунту, то ви маєте право на апеляцію та розуміння причини цього видалення. Також ви можете прийти до незалежної третьої сторони, наприклад, наглядової ради й отримати відповідь, чи правильно вчинив майданчик, чи ні. На думку експерта, це дуже великий крок уперед у європейському законодавстві. Найбільше покращення внаслідок прийняття цього акту — це надання користувачам можливості взаємодії з платформами.
Також Джоан Барата додав, що всі платформи дуже погано адаптуються до кризових ситуацій, як в Україні. Платформи досі не мають відповідних механізмів і протоколів на такі випадки. В моменти кризи соцмережі можуть бути корисним інструментом, якщо ЗМІ не працюють на певній території. Часто саме вони стають єдиним джерелом комунікації. А з іншого боку вони стають дуже небезпечними в таких випадках, і над цим треба ще працювати та створювати спеціальні кризові команди, які розуміли б контекст країни, в якій відбувається конфлікт.
За словами консультанта з цифрових технологій eQualitie Віталія Мороза, тема блокування та заборон стосується не усіх соцмереж, а лише великих централізованих, якими більшість аудиторії звикла користуватися.
«Централізовані соцмережі — це гіганти, де є велика аудиторія. Ми говоримо про соцмережі, де користувачі не володіють своїми даними та не мають впливу на політики цих компаній і живуть щоденно в режимі порушення своїх цифрових правил. Великі платформи порушують наші цифрові права, а ми з цим живемо, вибираємо зручність. У децентралізованих соцмережах немає таких понять як блокування та скарги. Вони менш популярні, там немає великих аудиторій, але я переконаний, що це майбутнє соцмереж», — каже Віталій Мороз.
За його даними, у 2021 році Meta отримала 118 млрд доларів доходу з реклами, яка складає приблизно 97% всього доходу. Експерт каже, що фейсбуку не дуже важливо, хто замовляє рекламу. Соцмережа намагається ідентифікувати неестетичну поведінку, блокувати акаунти, які під санкціями тощо, однак це централізований продукт з універсальними правилами, які мають настільки багато слабких місць, що їх дуже легко порушувати. Meta — комерційний продукт, тож вони не можуть відмовитися від реклами. Крім того, компанія закладає у бюджет кошти, які можуть піти на комунікації з обуреними користувачами: на 2023 рік ця сума склала 2 млрд доларів. Тобто вони усвідомлюють, що порушують права, що з ними можуть судитися, і передбачають кошти для відповідей на судові позови.
«Водночас ми не можемо не давати рекламу у фейсбуці, — каже Віталій. — Адже це логіка бізнесу, великі бренди продовжують там рекламуватися. Навіть якщо вони підуть — усе одно в Україні існує практика громадських організацій, яким потрібно показувати результат перед донорами, а ті своєю чергою потребують великих цифр, відповідно всі дуже успішно інвестують у Facebook, збільшуючи потужність Мета».
Виходом із цього замкнутого кола, на думку Мороза, можуть стати альтернативні платформи, які тільки розвиваються й у майбутньому можуть стати запасним майданчиком для медіа та інших користувачів.
Крім того, з часом модерація соціальних мереж може відбуватися за допомогою штучного інтелекту. Національний радник по Україні в International Media Support Роман Кіфлюк зазначив, що штучний інтелект може вплинути на процес модерації, але не розв'яже всіх проблем, адже існують мовні, культурні, територіальні особливості аудиторії. Людина, яка навчає штучний інтелект, не може їх усі врахувати. На його думку, Україна поки що не може переймати досвід інших країн із використання штучного інтелекту в саморегулюванні медіа, бо він просто поки не буде працювати в наших умовах. Як, наприклад, таблоїд Bild, який замінить редакторів штучним інтелектом. Однак Роман Кіфлюк каже, що українські медійники мають пройти певний шлях і самостійно вирішити, чи користуватися штучним інтелектом. А щодо соцмереж, то наразі вони в пасивному очікуванні міжнародних регуляцій і саме від ініціативи користувачів залежить, чи буде ситуація змінюватися.
Щодо модерації соцмереж в Україні медіаюрист Ігор Розкладай додав, що найбільшою проблемою є непрозорість списку заборонених осіб. Його зливали в мережу торік, і саме так було визначено, що «Азов» та Андрій Білецький є в цьому списку. А коли такий список непрозорий, то користувач може і не знати, що він щось порушує. І людям таким чином починають «прилітати» санкції за дописи з власником ПВК «Вагнер» Євгеном Пригожиним.
«Коли користувачі висміюють Пригожина та ПВК "Вагнер", їм ці пости зносять. Треба бути заглибленим у контекст, щоб зрозуміти сатиру», — каже Розкладай.
Окремою проблемою медіаюрист назвав непропорційність санкцій, коли не вдавалося відновити видалені групи. Найвідоміший випадок стосувався дизайнера та розробника шрифтів Богдана Гдаля. Його група «На Теремках» була однією з найбільших київських спільнот, і її заблокували через те, що адміністратори запостили втрачені документи, аби знайти їхніх власників. Meta розцінила це як порушення приватності й розголошення особистих даних і видалила всю групу. За словами Ігоря Розкладая, очевидно, що це непропорційно. Можна було б видалити певний контент або ввести санкції до адміна, але не видаляти групу, яка важлива для певного ком’юніті.
Керівник напряму «Цифрові права» Лабораторії цифрової безпеки Максим Дворовий розповів про основні проблеми громадських організацій, так званих довірених партнерів соціальних мереж, які працюють для покращення модерації. На його думку, першим мінусом довірених партнерів є їхня непрозорість:
«Є декілька організацій, які займаються ескалаціями, розбанами профілів активістів, журналістів, громадських організацій і подібними речами. Але проблема в тому, що фактично про це знає закрите коло організацій, яке знає щось про інше закрите коло організацій. Тому якщо трапляються блокування якихось осіб з-за меж цих організацій, виникає величезне питання, а яким чином знайти людину, яка може вам допомогти».
Другою проблемою, за словами Максима Дворового, є нечіткість критеріїв. Є прикордонні приклади, коли незрозуміло, як компанії мають реагувати на блокування та чи мають реагувати взагалі. Наприклад, така ситуація склалася з мобілізованими журналістами. З одного боку, вони є журналістами та продовжують використовувати свої профілі для того, аби поширювати суспільно важливу інформацію, а з іншого боку, вони все ж є військовослужбовцями, яких соцмережі не завжди сприймають як видатних людей і не готові захищати.
Третя проблема стосується безпосередньо ролі довірених організацій у створенні та розробці політик усередині компанії. За словами експерта, дуже часто роль таких партнерів обмежується, але їх варто залучати до розробки політики, які стосуються певного регіону або принаймні питати, як застосовувати ці політики до регіону. Також було б логічним, аби компанії розкривали довіреним партнерам ці закриті списки заборонених організацій, осіб і слів, щоб вони розуміли, як працювати з відновленням профілів і дописів. Адже навіть людині, яка працює у цій сфері, іноді важко зрозуміти, за що був видалений контент. Цих же партнерів було б краще залучати і до створення таких переліків, адже вони краще розуміють контекст.
За даними експерта, деякі з організацій, що існують в Україні, співпрацюють із Meta напряму, а деякі — через міжнародних партнерів, що створює додатковий рівень передачі інформації, фактично ефект зламаного телефону, коли людина не може контролювати, яким чином взагалі розглядається її справа.