Meta AI, ChatGPT та інші чатботи стали вдвічі частіше відтворювати хибні твердження, зокрема російську дезінформацію

Meta AI, ChatGPT та інші чатботи стали вдвічі частіше відтворювати хибні твердження, зокрема російську дезінформацію

11:41,
7 Вересня 2025
2078

Meta AI, ChatGPT та інші чатботи стали вдвічі частіше відтворювати хибні твердження, зокрема російську дезінформацію

11:41,
7 Вересня 2025
2078
Meta AI, ChatGPT та інші чатботи стали вдвічі частіше відтворювати хибні твердження, зокрема російську дезінформацію
Meta AI, ChatGPT та інші чатботи стали вдвічі частіше відтворювати хибні твердження, зокрема російську дезінформацію
Таке зростання пов’язане зі зміною підходів до навчання моделей. Якщо раніше генеративні моделі відмовлялися відповідати на частину запитів або посилалися на обмеження відкритих даних, то тепер використовують результати пошуку в реальному часі.

Дослідники аналітичної компанії NewsGuard зафіксували значне зростання випадків поширення чатботами штучного інтелекту неправдивих тверджень, передає Forbes із посиланням на дані компанії.

Дослідження охопило десять провідних генеративних моделей, зокрема ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) та пошуковий інструмент Perplexity.

Аналіз проводився щодо спірних новинних тем, у яких наявні доведені хибні твердження. У середньому чатботи відтворювали такі твердження у 35% випадків, що майже вдвічі перевищує показник минулого року (18%). Найгірший результат показав Inflection Pi — 57% хибних відповідей. Perplexity мав 47%, Meta AI та ChatGPT — по 40%. Найточнішим виявився Claude, який помилявся у 10% випадків.

За словами редактора NewsGuard з питань ШІ та іноземного впливу МакКензі Садегі, зростання хибних тверджень пов’язане зі зміною підходів до навчання моделей. Якщо раніше генеративні моделі відмовлялися відповідати на частину запитів або посилалися на обмеження відкритих даних, то тепер використовують результати пошуку в реальному часі. Це і підвищує ризики, оскільки пошукові результати можуть бути навмисно наповнені дезінформацією, зокрема з боку російських пропагандистських мереж.

Раніше цього року NewsGuard встановив, що провідні чатботи у 33% випадків відтворювали неправдиві матеріали з мережі сайтів, пов’язаних із прокремлівським ресурсом «Правда». Протягом 2024 року ця мережа опублікувала близько 3,6 мільйона матеріалів, які потрапили у відповіді західних ШІ-систем.

Розслідування American Sunlight Project показало, що кількість доменів і піддоменів, пов’язаних з «Правдою», зросла майже вдвічі — до 182. Сайти мають низьку зручність використання, що, на думку дослідників, свідчить про орієнтацію не на реальних читачів, а на алгоритми ШІ.

У новому звіті NewsGuard вперше оприлюднено назви конкретних чатботів. У компанії пояснили, що це зроблено з метою інформування політиків, журналістів та громадськості про підвищений рівень неточності популярних інструментів ШІ.

 Фото: Getty Images

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
Снайк
18:38 / 07.09.2025
Оскільки в статті ні тут ні у Форбес не наведено прикладів, спробував пошукати цю кремлівську "Правду", яка обманула ШІ згідно твереджень. Мабуть щось не те знайшов. Бо на сайті "pravda.ru" - непобачив валу дизінформації. Більше про життя у Світі і на Росії. Про Україну вкрай мало, нічого про сьогоднішні обстріли Києва чи минулі - взагалі не тривожать цим росіян. Складається враження що у них життя йде, у нас не життя, а "звизда", де блажені заброньовані танцюють на дискотеках в Києві під обстрілами чекаючи як депутати з Зеленським змусять бусифікованих псами Клименка чи тцк воювати, а не тікати В СЗЧ. Одне слово, не знайшов там "ядра поширення дизінформації", лише подратувався що у них життя відбувається. Звісно термінологія "конфликт на Украине" і "сво" зберігається - яка їм типу різниця чи війну війною називати. Про санкції "введу-невведу Трампа" теж великої брехні не спостерігав. Так само описали навчання у Білорусії "Запад-2025" і як Захід злякався чи дійсно примінять тактичну ядерну зброю чи ні. Тож цей ресурс не відповідає опису масштабності загрози дизінформації, і тим більше "алгоритму обману ШІ". Інша "Правда" - це якась газета російських комуністів, де новина про урочисте встановлення учора погруддя Сталіна у Мурманську і незадоволення зростанням вартості комуналки. Теж не те. Для москалів Європа - стратегічний ворог, яка занадто добре живе, тому зрозуміло поширюють дезу, але навряд вони так швидко навчились ШІ обманювати.
2019 — 2025 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду