
ВВС: чатботи штучного інтелекту не здатні точно узагальнювати новини
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
ВВС: чатботи штучного інтелекту не здатні точно узагальнювати новини


Чатботи зі штучним інтелектом, такі як ChatGPT від OpenAI, Gemini від Google, Microsoft Copilot і Perplexity, допускають значні помилки, створюючи узагальнення новин. Про це повідомляє BBC, що провела власне дослідження.
Дослідження тривало приблизно місяць. Кожен чатбот просили створити підсумки для ста публікацій медіа, а журналісти їх перевіряли. Лише 49% узагальнень, створених ШІ, не містили помилок, тоді як у 51% були різноманітні неточності.
Зокрема, в 19% резюме публікацій ВВС були згенеровані неправильні твердження, цифри та дати. Тим часом у 13% підсумків публікацій з BBC були виявлені або змінені порівняно з першоджерелом цитати, або такі, яких не було в цитованій статті.
Серед помилок, які допускали чатботи, було подання старих новин як актуальних, а також змішування інформації з останніх новин із застарілими даними.
Ще однією проблемою чатботів є те, що вони не завжди здатні розрізнити фактичні дані та авторську думку. Журналісти BBC виявили щонайменше 23 випадки, коли думка автора подавалася як факт.
У межах цього дослідження BBC виявило, що Copilot і Gemini допускають більше суттєвих помилок у відповідях на основі новин, ніж ChatGPT чи Perplexity, однак проблеми спостерігаються у всіх чатботів.
- Читайте також: RSF закликали Apple прибрати функцію генеративного штучного інтелекту після поширення фейкових новин, приписаних BBC
Фото: застосунки ШІ-чатботів / seekingalpha.com