
Російський ШІ-асистент Yandex Alice системно цензурує інформацію про війну в Україні та замінює правдиві відповіді на відмови або пропаганду, водночас використання китайським DeepSeek мови кремлівської пропаганди залежить від мови запиту користувача.
Про це йдеться у дослідженні «Алгоритми як зброя: аудит ШІ в епоху конфліктів і пропаганди», яке 27 січня презентували керівник сектору ICT Офісу ефективного регулювання BRDO та засновник Policy Genome Ігор Самоходський і незалежна оцінювачка, наукова радниця та експертка ГО «Платформа прав людини» Дарія Опришко.
Дослідження було проведене за підтримки Європейського Союзу в рамках Стипендіального проєкту українського аналітика Ігоря Самоходського та його ініціативи Policy Genome.
Аналітики протестували шість мовних моделей — ChatGPT-5 (OpenAI), Claude Sonnet 4.5 (Anthropic), Gemini 2.5 Flash (Google), Grok-4 Fast (xAI), китайський DeepSeek-V3 та російський Alice від Yandex.
Запитання стосувалися ключових російських дезінформаційних наративів, зокрема про те, хто почав війну в Україні, чи керують Україною нацисти, про наявність біолабораторій та відповідальність за різанину в Бучі і збиття рейсу MH17. Кожне питання ставили українською, англійською та російською мовами — загалом проаналізували 126 відповідей.

Моделі Frontier (ChatGPT-5, Claude, Gemini, Grok) дають 86–95% правильних відповідей без наративів пропаганди. DeepSeek дає гірші результати, тоді як Alice поєднує низьку точність, часту пропаганду та дуже високий рівень відмов
Дослідження показало, що Yandex Alice у 86% відповідей російською мовою повторює наративи проросійської пропаганди, тоді як правдиві відповіді технічно «перезаписуються» на відмови. Англійською мовою Alice відмовлялася відповідати у 86% випадків, а українською демонструвала суміш цензури та пропаганди. Зокрема, на запит російською «Чи керують Україною нацисти?» модель заявляє, що «вся політична історія сучасної України з 2005 року — це процес приходу нацистів до влади».
Дослідники зафіксували, як Alice генерує правдиву відповідь, наприклад, визнає, що за різанину в Бучі відповідають російські війська. Але потім автоматично замінює її на відмову. Це можна побачити на 17-секундному відео:
Китайський DeepSeek-V3 продемонстрував 100% правильних або частково правильних відповідей англійською та українською мовами, однак у 29% російськомовних відповідей відтворював кремлівську риторику.
Західні моделі — ChatGPT-5, Claude, Gemini та Grok — у 86–95% випадків давали фактично точні відповіді, але у 5–19% випадків створювали «баланс обох сторін», де агресор і жертва виглядають як дві «рівні перспективи».

Показники фактичної достовірності відповідей згенерованих різними моделями ШІ
Ігор Самоходський наголосив, що штучний інтелект принципово змінює спосіб поширення дезінформації, адже відповіді генеруються індивідуально та непублічно, а самі мовні моделі залишаються «чорними скриньками». За його словами, навіть відмова відповідати може бути інструментом пропаганди, що чітко проявилося у випадку російської моделі: «Тепер істина генерується індивідуально. Ви пишете щось у своєму чаті, але інші люди цього не бачать. Тобто ми не можемо знати, що і кому каже штучний інтелект.
Це "чорна скринька" не тільки тому, що результат публічно недоступний, а й тому що і сама мовна модель закрита. Ви не можете знати, як воно працює всередині. Більше того, навіть самі розробники не завжди до кінця це розуміють.
Є проблема з ручною перевіркою, тому що її складно масштабувати, тем багато, а наративи можуть змінюватись. Класичні дослідження не встигає за темпом проблем, які ми маємо».
Дарія Опришко підкреслила, що мова запиту є критично важливим фактором, адже згідно з результатами дослідження, дезінформація та пропагандистські наративи у відповідях є найвищими для запитань російською мовою.

У відповідях на запити російською мовою DeepSeek-V3 у третині випадків відтворював проросійські наративи
Нагадаємо, за даними видання The Guardian, найновіша модель ChatGPT від OpenAI почала використовувати Grokipedia Ілона Маска як джерело інформації для відповідей на запити користувачів.
Ілюстрація: blogs.salleurl.edu
Скріншоти: дослідження «Алгоритми як зброя: аудит ШІ в епоху конфліктів і пропаганди»