Росія використовувала ШІ для поширення дезінформації, — звіт OpenAI
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Росія використовувала ШІ для поширення дезінформації, — звіт OpenAI
Компанія OpenAI заявила, що виявила п’ять онлайн-кампаній, які використовували технології генеративного штучного інтелекту для оманливого маніпулювання громадською думкою в усьому світі та впливу на геополітику, пише The New York Times.
Видання зазначає, що у звіті OpenAI ідеться про кампанії прихованого впливу, до яких долучилися державні структури та приватні компанії в Росії, Китаї, Ірані та Ізраїлі.
Операції використовували технологію OpenAI для створення постів у соціальних мережах, перекладу та редагування статей, написання заголовків і налагодження комп'ютерних програм, як правило, для отримання підтримки політичних кампаній або для впливу на громадську думку в геополітичних конфліктах.
За словами дослідників соціальних мереж, звіт OpenAI — це перший випадок, коли велика компанія, що займається розробкою штучного інтелекту, розкрила, як її конкретні інструменти використовувалися для такого онлайн-обману.
Нещодавній прогрес генеративного ШІ підняв питання про те, як ця технологія може сприяти дезінформації в інтернеті, особливо в рік, коли по всьому світу відбуваються великі вибори.
Бен Німмо, головний дослідник OpenAI, зазначив, що після всіх спекуляцій на тему використання генеративного ШІ в таких кампаніях компанія мала на меті показати реалії того, як технологія змінює способи обману в інтернеті.
«Наші кейси містять приклади з деяких з найбільш відомих і довготривалих кампаній впливу, які зараз діють», — сказав він.
За словами Німмо, кампанії часто використовували технологію OpenAI для розміщення політичного контенту, але розробнику було важко визначити, чи були вони націлені на конкретні вибори, чи просто прагнули збурити людей. Дослідник додав, що ці кампанії не набули значного розголосу і що інструменти штучного інтелекту, схоже, не розширили своє охоплення або вплив.
Але Грем Брукі, старший директор Лабораторії цифрових криміналістичних досліджень Атлантичної ради, попередив, що ландшафт дезінформації в інтернеті може змінитися, оскільки генеративні технології ШІ стають дедалі потужнішими.
Цього тижня компанія OpenAI, яка створює чатбот ChatGPT, заявила, що розпочала навчання нової флагманської моделі ШІ, яка забезпечить «наступний рівень можливостей».
У своєму звіті OpenAI заявила, що її інструменти використовувалися в кампаніях впливу, які дослідники відстежували роками, зокрема й російську кампанію під назвою Doppelganger і китайську кампанію під назвою Spamouflage.
Кампанія Doppelganger використовувала технологію OpenAI для створення антиукраїнських коментарів, які були розміщені на платформі X англійською, французькою, німецькою, італійською та польською мовами. Інструменти компанії також використовувалися для перекладу та редагування статей, які підтримували Росію у війні в Україні, англійською та французькою мовами, а також для конвертації антиукраїнських новинних статей у пости у фейсбуку.
Інструменти OpenAI використовувалися в раніше невідомій російській кампанії, спрямованій на людей в Україні, Молдові, країнах Балтії та Сполучених Штатах, переважно через службу обміну повідомленнями «Телеграм».
Кампанія використовувала ШІ для створення коментарів російською та англійською мовами про війну в Україні, а також про політичну ситуацію в Молдові та американську політику. У рамках цієї роботи також використовувалися інструменти OpenAI для налагодження комп’ютерного коду, який, очевидно, був розроблений для автоматичної публікації інформації в телеграмі.
Китай використовував технологію OpenAI для налагодження коду, пошуку порад щодо аналізу соціальних медіа та дослідження поточних подій. Її інструменти також застосовували для створення публікацій у соціальних мережах, які зневажали людей, що критикували китайський уряд.
Іранська кампанія, пов’язана з групою під назвою Міжнародний союз віртуальних медіа, використовувала інструменти OpenAI для створення та перекладу довгих статей і заголовків, спрямованих на поширення проіранських, антиізраїльських та антиамериканських настроїв на вебсайтах.
Ізраїльська кампанія, яку OpenAI назвала «Zeno Zeno», проводилася фірмою, яка керує політичними кампаніями. Вона використовувала технологію OpenAI для створення вигаданих персонажів і біографій, призначених для заміни реальних людей у соціальних мережах, що використовуються в Ізраїлі, Канаді та Сполучених Штатах, і для публікації антиісламських повідомлень.
Хоча сучасний генеративний ШІ може допомогти зробити кампанії більш ефективними, ці інструменти не створили потоку переконливої дезінформації, який прогнозували багато експертів у галузі ШІ, йдеться у звіті OpenAI.
«Це свідчить про те, що деякі з наших найбільших побоювань щодо операцій впливу за допомогою ШІ та дезінформації за допомогою ШІ поки що не справдилися», — сказав Джек Стаббс, директор з розвідки компанії Graphika, яка відстежує маніпуляції в соціальних мережах і проаналізувала висновки OpenAI.
Нагадаємо, напередодні виборів у Великій Британії з’явилися брошури політичних партій, масковані під нібито місцеві газети.
Читайте також:
- OpenAI уклала угоду про співпрацю з американською News Corp
- Як українським медіа не програти боротьбу з ШІ
- Meta видалила сотні акаунтів, пов’язаних з пропагандистськими кампаніями Росії, Китаю, Ізраїлю, Ірану та інших країн
Фото: бренд компанії OpenAI / Getty Images