ms.detector.media
Валерія Буняк
05.05.2026 15:57
У ютубі скоординована мережа поширює тисячі ШІ-відео з геополітичною дезінформацією, — дослідження
У ютубі скоординована мережа поширює тисячі ШІ-відео з геополітичною дезінформацією, — дослідження
Мережа зі щонайменше 29 скоординованих облікових записів опублікувала понад 7300 відео з березня по грудень 2025 року.

Дослідники компаній Alliance4Europe та Doublethink Lab виявили скоординовану операцію впливу в ютубі, в рамках якої було опубліковано великі обсяги геополітичного контенту, створеного штучним інтелектом. Відео були орієнтовані на канадську та азійсько-тихоокеанську аудиторію. Про це йдеться у звіті Alliance4Europe.

У звіті визначено два основні кластери. Кластер «Центр та оновлення» зосереджений на широкому спектрі геополітичних тем (Філіппіни, зростання сили БРІКС та наративи про занепад ЄС). «Канадський кластер» орієнтований на канадську та частину американської аудиторії з контентом, що критикує тарифну політику США. Він зображує Канаду та Китай як сильні країни на відміну від США та ЄС, які занепадають.

Мережа зі щонайменше 29 скоординованих облікових записів у двох кластерах опублікувала понад 7300 відео з березня по грудень 2025 року.

Канали використовували автоматизовані інструменти генерації відео зі штучним інтелектом (InVideo, озвучка зі штучним інтелектом, шаблонні візуальні ефекти), завантажуючи приблизно 2 відео на день на канал. Контент часто поширювався у фейсбуці та зовнішніх блогах, деякі публікації отримували тисячі реакцій та сотні поширень.

Кілька відеороликів пропагували хибні геополітичні твердження, включаючи сфабриковані повідомлення про нібито військово-морські зіткнення між Філіппінами та Малайзією, які публічно заперечували флоти обох країн.

Відмивання контенту за допомогою штучного інтелекту становить системний ризик, оскільки воно штучно посилює певні наративи, обходячи механізми виявлення дублікатів контенту, імітує органічну різноманітність контенту, вводячи в оману системи рекомендацій, сприяє узгодженій неавтентичній поведінці.

«Враховуючи зростаючу доступність та відоме використання генеративних інструментів штучного інтелекту для відмивання інформації, ці типи маніпулятивних методів слід було передбачити. Особливо, враховуючи, що раніше їх було ідентифіковано як такі, що використовувалися китайською операцією впливу Shadow Play (ютуб заблокував її у 2023-2024 роках, — ред.)», — зауважили у звіті. 

Станом на квітень 2026 року чотири облікові записи були недоступні з початку цього розслідування, а один канал змінив свою назву. Хоча точна мотивація мережі залишається незрозумілою, масштаби автоматизації та синхронізовані моделі публікацій свідчать про навмисну ​​операцію, яка вимагає подальшого розслідування.

«Ця мережа ламає стереотипи, немає чіткої прокитайської чи проросійської позиції, лише великий обсяг контенту, орієнтованого на трендові теми. Можливо, зараз вона непомітно маніпулює алгоритмами, щоб створити канали впливу на потім, що зробить їх таким, за яким варто пильно стежити», — сказав один з авторів звіту Джеррі Ю з Doublethink Lab.

«Ця мережа є символом загального явища, коли актори розробляють контент зі штучним інтелектом у великих масштабах, щоб спробувати отримати перегляди, маніпулюючи алгоритмами. Ми спіймали їх, бо були очевидні ознаки, але ці відео в стилі новин ставатимуть лише дедалі складнішими», — також вважає Джуліан Нейлан з Alliance4Europe.

Відповідно до статей 34 та 35 Закону про цифрові послуги, ютуб як дуже велика онлайн-платформа зобов'язаний виявляти системні ризики та вживати пропорційних заходів щодо їх пом'якшення.

Дослідники закликають ютуб запровадити сильніші системні заходи для виявлення та припинення скоординованої неавтентичної поведінки, включаючи виявлення дублікатів або семантично схожого контенту в різних форматах, ідентифікацію скоординованих моделей поширення та сповіщення про штучний контент.

У звіті також рекомендують продовжувати моніторинг цих облікових записів та закликають до міжнаціональної співпраці для боротьби з поширенням низькоякісного політичного контенту, створеного штучним інтелектом.

Ознайомитися з повним звітом можна тут.

Нагадаємо, дослідження The Guardian показало, що понад 20% відео, які алгоритми ютубу показують новим користувачам, це низькоякісний контент, створений за допомогою штучного інтелекту, метою якого є збільшення переглядів.

Компанія Kapwing опитала 15 тисяч найпопулярніших ютуб-каналів у світі, зокрема 100 найкращих у кожній країні, і виявила, що 278 із них містять лише AI slop. За оцінками, такі канали набрали понад 63 мільярди переглядів і 221 мільйон підписників та принесли приблизно 117 мільйонів доларів доходу на рік.

The New York Times також зʼясувало, що YouTube активно рекомендує дітям згенеровані штучним інтелектом відео, які замасковані під навчальний контент. За даними видання, такі ролики можна легко знайти навіть у додатку YouTube Kids.

Фото: Shutterstock

ms.detector.media