ms.detector.media
Юлія Поліковська
12.02.2025 18:07
ВВС: чатботи штучного інтелекту не здатні точно узагальнювати новини
ВВС: чатботи штучного інтелекту не здатні точно узагальнювати новини
Дослідження ВВС показало, що Gemini допускає помилки частіше за конкурентів.

Чатботи зі штучним інтелектом, такі як ChatGPT від  OpenAI, Gemini від Google, Microsoft Copilot і Perplexity, допускають значні помилки, створюючи узагальнення новин. Про це повідомляє BBC, що провела власне дослідження.

Дослідження тривало приблизно місяць. Кожен чатбот просили створити підсумки для ста публікацій медіа, а журналісти їх перевіряли. Лише 49% узагальнень, створених ШІ, не містили помилок, тоді як у 51% були різноманітні неточності.

Зокрема, в 19% резюме публікацій ВВС були згенеровані неправильні твердження, цифри та дати. Тим часом у 13% підсумків публікацій з BBC були виявлені або змінені порівняно з першоджерелом цитати, або такі, яких не було в цитованій статті.

Серед помилок, які допускали чатботи, було подання старих новин як актуальних, а також змішування інформації з останніх новин із застарілими даними.

Ще однією проблемою чатботів є те, що вони не завжди здатні розрізнити фактичні дані та авторську думку. Журналісти BBC виявили щонайменше 23 випадки, коли думка автора подавалася як факт.

У межах цього дослідження BBC виявило, що Copilot і Gemini допускають більше суттєвих помилок у відповідях на основі новин, ніж ChatGPT чи Perplexity, однак проблеми спостерігаються у всіх чатботів.

Фото: застосунки ШІ-чатботів / seekingalpha.com

ms.detector.media