
Meta AI, ChatGPT та інші чатботи стали вдвічі частіше відтворювати хибні твердження, зокрема російську дезінформацію
Meta AI, ChatGPT та інші чатботи стали вдвічі частіше відтворювати хибні твердження, зокрема російську дезінформацію


Дослідники аналітичної компанії NewsGuard зафіксували значне зростання випадків поширення чатботами штучного інтелекту неправдивих тверджень, передає Forbes із посиланням на дані компанії.
Дослідження охопило десять провідних генеративних моделей, зокрема ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) та пошуковий інструмент Perplexity.
Аналіз проводився щодо спірних новинних тем, у яких наявні доведені хибні твердження. У середньому чатботи відтворювали такі твердження у 35% випадків, що майже вдвічі перевищує показник минулого року (18%). Найгірший результат показав Inflection Pi — 57% хибних відповідей. Perplexity мав 47%, Meta AI та ChatGPT — по 40%. Найточнішим виявився Claude, який помилявся у 10% випадків.
За словами редактора NewsGuard з питань ШІ та іноземного впливу МакКензі Садегі, зростання хибних тверджень пов’язане зі зміною підходів до навчання моделей. Якщо раніше генеративні моделі відмовлялися відповідати на частину запитів або посилалися на обмеження відкритих даних, то тепер використовують результати пошуку в реальному часі. Це і підвищує ризики, оскільки пошукові результати можуть бути навмисно наповнені дезінформацією, зокрема з боку російських пропагандистських мереж.
Раніше цього року NewsGuard встановив, що провідні чатботи у 33% випадків відтворювали неправдиві матеріали з мережі сайтів, пов’язаних із прокремлівським ресурсом «Правда». Протягом 2024 року ця мережа опублікувала близько 3,6 мільйона матеріалів, які потрапили у відповіді західних ШІ-систем.
Розслідування American Sunlight Project показало, що кількість доменів і піддоменів, пов’язаних з «Правдою», зросла майже вдвічі — до 182. Сайти мають низьку зручність використання, що, на думку дослідників, свідчить про орієнтацію не на реальних читачів, а на алгоритми ШІ.
У новому звіті NewsGuard вперше оприлюднено назви конкретних чатботів. У компанії пояснили, що це зроблено з метою інформування політиків, журналістів та громадськості про підвищений рівень неточності популярних інструментів ШІ.
Фото: Getty Images














