Людям складно виявляти дезінформацію, створену ШІ, — дослідження
Людям складно виявляти дезінформацію, створену ШІ, — дослідження
Люди вважають твіти, згенеровані штучним інтелектом, більш переконливими, ніж створені людьми. Це засвідчили результати дослідження, оприлюднені в журналі Science Advances, повідомило The Verge.
У межах дослідження опитали 697 осіб, щоб з’ясувати, чи можуть вони відрізнити твіти, створені за допомогою мовної моделі GPT-3, від написаних людиною. Дослідження показало, що людям складно відрізнити дописи, згенеровані ШІ, від написаних людьми.
Також дослідники вирішили перевірити, чи розпізнають люди згенеровану мовною моделлю дезінформацію на тему вакцинації, зміни клімату тощо.
У процесі дослідження виявилося, що люди краще розпізнавали дезінформацію, створену людьми, ніж згенеровану мовною моделлю.
«Такі дивовижні технології можна легко використати для створення штормів дезінформації на будь-яку тему на ваш вибір», — зазначив провідний автор дослідження, докторант і менеджер із дослідницьких даних в Інституті біомедичної етики та історії медицини в Цюрихському університеті Джованні Спітале.
«Але так бути не повинно, існують способи розробити технологію, щоб її було важче використовувати для поширення дезінформації», — додав він.
Для цього дослідження Джованні Спітале та його колеги зібрали дописи з твітеру, в яких обговорювали 11 різних наукових тем, починаючи від вакцин і COVID-19 і закінчуючи зміною клімату та еволюцією. Потім вони спонукали GPT-3 написати нові твіти з точною або неточною інформацією. Далі команда зібрала відповіді від 697 учасників онлайн через анкетування у фейсбуці у 2022 році. Усі вони розмовляли англійською мовою та були переважно з Великої Британії, Австралії, Канади, Сполучених Штатів та Ірландії. Їх результати були опубліковані в журналі Science Advances.
Нагадаємо, за даними моніторингового агентства NewsGuard, чатботи ШІ використовують для створення десятків контент-ферм.
Фото: Open AI