«Нам потрібен новий тип свободи — свобода від обману». Як протидіяти нейромережам, що поширюють фейки

«Нам потрібен новий тип свободи — свобода від обману». Як протидіяти нейромережам, що поширюють фейки

09:46,
27 Березня 2023
2372

«Нам потрібен новий тип свободи — свобода від обману». Як протидіяти нейромережам, що поширюють фейки

09:46,
27 Березня 2023
2372
«Нам потрібен новий тип свободи — свобода від обману». Як протидіяти нейромережам, що поширюють фейки
«Нам потрібен новий тип свободи — свобода від обману». Як протидіяти нейромережам, що поширюють фейки
У Києві відбувся дводенний форум про регулювання штучного інтелекту.

23 та 24 березня тривав форум «Штучний інтелект 2.0: регулювання та робота під час війни», організаторами якого стали Центр демократії та верховенства права (ЦЕДЕМ) і Лабораторія цифрової безпеки. У заході взяли участь експерти зі свободи медіа, прав людини, цифрової безпеки, а також юристи й журналісти-фактчекери. Зокрема, під час сесії «За межею правди: штучний інтелект і дезінформація» експерти обговорили документи, що регулюють розвиток штучного інтелекту, як російська пропаганда використовує діпфейки та які інструменти допоможуть запобігти їхньому поширенню.

За словами радниці офісу представника ОБСЄ з питань свободи медіа Деніз Вагнер, системи рекомендацій і таргетована реклама — це основні засоби, які дозволяють поширювати дезінформацію онлайн. Однак не існує єдиної формули розв'язання цієї проблеми: «В різних частинах світу розробляють закони щодо розповсюдження дезінформації, вони мають дуже широкі формулювання, що часто перетікає в цензуру, навіть таку, яка обмежує етику та журналістику. Але існує багато способів упорядкувати цей безлад у сфері інформації. Є жорсткі та м’які регулювання на міжнародному, регіональному та державному рівнях. Треба враховувати права та зобов’язання того, хто створив діпфейк, особи, яка там зображена, власника авторських прав, розробника технології, платформи-посередника, яка використовує це для розповсюдження, а також користувачів платформи, які його завантажили та поділилися. Усіх цих людей варто брати до уваги».

Задля контрольованого розвитку штучного інтелекту в Європейському Союзі наразі розробляють Акт щодо його регулювання, крім того Деніз Вагнер виокремила вже чинні Загальний регламент про захист даних (GDPR), Директиву Європейського парламенту та Ради ЄС щодо електронної комерції, рішення Європарламенту щодо діпфейків, Європейський акт про свободу мас-медіа. «Усе це можна вважати жорсткими або м’якими законами, які регулюють діпфейки та дезінформацію, а також потенційне середовище, в якому такі матеріали розповсюджуються», — каже Вагнер.

Офіс представника ОБСЄ з питань свободи медіа на міжнародному рівні дає певні рекомендації та настанови щодо регуляторних ініціатив і працює над програмами з цифрової грамотності.

Деніз Вагнер каже, що дезінформації має перешкоджати не тільки законодавство, а й самі користувачі: «Нам потрібна не лише регуляторна система і не лише цифрова грамотність. Нам потрібні спільні зусилля на всіх рівнях суспільства. Нам потрібен новий тип свободи — свободи від обману. Право обирати інформацію, яка найкраще відображає реальність. Або, як сказала правозахисниця Сьюзі Алегре: "Нам потрібна свобода думати, щоб штучний інтелект не обмежував наше абсолютне право на свободу думки". Свобода слова є необхідною, але недостатньою в реагуванні на дезінформацію, адже технології впливають на свободу думки, бо існують цілі компанії з дезінформації, які часто фінансуються державами».

Керівник Центру стратегічних комунікацій та інформаційної безпеки Ігор Соловей розповів, як штучний інтелект може поширювати проросійські наративи: «Популярний чатбот ChatGPT може створювати дезінформаційні повідомлення, зокрема засновані на наративах кремлівської пропаганди, формулюючи відповідні запити. Протидія штучному згенерованому неправдивому контенту — це виклик, до якого готуватися потрібно було ще вчора.

Ми бачимо, що російські спецслужби мають досвід використання фото- та відеомонтажу для створення фейків і проведення інформаційно-психологічних операцій, і продовжують освоювати штучний інтелект. Наприклад, це було використано для створення фейкового відеозвернення президента Зеленського про капітуляцію, яке було вкинуто у березні 2022 року. Тоді через низьку якість цього продукту та оперативну реакцію держави й президента, який особисто спростував цей фейк, відео не досягло своєї мети ні в Україні, ні за кордоном. Але ми можемо прогнозувати, що росіяни на цьому не зупиняться та продовжать покращувати наявні інструменти, аби проводити свою деструктивну діяльність».

Експерт припускає, що штучний інтелект може замінити частину людей, які працюють на російських фабриках тролів. Вони провокують конфлікти в соцмережах і створюють ілюзію масової підтримки кремлівських наративів. Замість тролів, які пишуть коментарі за методичками, це може робити штучний інтелект із використанням ключових слів і запропонованої йому лексики.

Створені за допомогою нейромереж зображення вже конкурують із реальними за рівнем яскравості та емоційності, і, вочевидь, ця практика буде використовуватися з метою дезінформації. 

«Розвиток штучного інтелекту випереджає створення запобіжників від його недоброчесного та зловмисного використання, а також формулювання політик щодо його регулювання. Тому співпраця українських урядових структур із бігтек-компаніями у напрямку протидії розповсюдженню дезінформації та ліквідації ботоферм має лише поглиблюватись», — зазначає Ігор Соловей.

Засновниця проєкту «НотаЄнота» та фактчекерка Альона Романюк каже, що загрозу становлять не згенеровані штучним інтелектом тексти, відео та фото, а саме їх поширення: «Коли російські пропагандисти використовують ChatGPT і поширюють фейки через ресурси-мільйонники, ми маємо загрозливу ситуацію. Для того, щоби спростувати та пояснити, що це неправда, треба неабиякий час. Особливо коли використовується частина правдивих фактів і частина неправдивих».

За її словами, наразі існує велика потреба в інструменті, який розрізняв би якісні діпфейки, відео та фото, згенеровані штучним інтелектом: «Я б хотіла натренувати нейромережі на розрізнення російської пропаганди, тих інструментів, які використовує Росія для запуску неправдивої інформації. Адже коли ти запитуєш ChatGPT, які є типи пропаганди стосовно України, він дає чіткий перелік. Але коли просиш його надати приклади, починається продукування відсебеньок ChatGPT. Тому його не можна використовувати для фактчекінгу. У нас є тисячі кейсів, аби натренувати нейромережу на розпізнавання фейків.

Що добре вдається штучному інтелекту, так це розпізнавання ботів і автоматизованої поведінки в соціальних мережах. Це допомагає у виявленні штучного просування тих чи інших наративів».

Юристка Лабораторії цифрової безпеки Тетяна Авдєєва зазначила, що дезінформація, а саме глибинні підробки або штучно створені зображення можуть використовуватися і в позитивному контексті: «Такі ж технології використовували, коли знімали останні "Зоряні війни". Для того, щоб можна було спроєктувати зображення Люка Скайвокера в молодості. Також їх використовували при створенні "Володаря перснів" і ще багатьох продуктів кіноіндустрії. Сказати, що треба повністю заборонити глибинні підробки та штучно створені зображення як факт — це перекрити повітря дуже багатьом індустріям, які використовують ці технології в хороших цілях. Говорити про абсолютну заборону та бланкетні норми навряд чи доцільно та реалістично».

Також юристка запропонувала розглядати дезінформацію не як тип контенту, а як шкідливу інформацію: «Наприклад, мова ворожнечі може бути просто мовою ворожнечі, а може базуватися на неправдивих фактах. Так само і пропаганда війни може просуватися на якихось правдивих фактах, залишаючись нелегальною, але оперуючи правдивою історичною інформацією. А може базуватися на вигаданих фактах, перекручених концепціях, маніпуляціях. Тобто при формуванні регуляторної рамки я б керувалася саме цим підходом — поширення вже забороненого контенту — це має бути кваліфікуюча ознака. Це означає, що особа або надзвичайно недбало ставиться до поширення певного типу контенту, або свідомо перекручувала чинні концепції.

Дуже важливо врегулювати це з технологічної точки зору, адже умовний ChatGPT може видавати дезінформацію за чисту монету, бо просто не може відфільтрувати, що є фейком, а що ні. Особливо, коли йдеться про дезінформацію, поширену живими людьми з якихось офіційних джерел або медіа. Має існувати не тільки рівень державного регулювання, а ще й рівень саморегулювання індустрії зокрема»

Додамо, що на попередній сесії форуму обговорювали розробку Європейським Союзом Акту про регулювання штучного інтелекту та анонсували на його основі запуск регуляторної «пісочниці» для українських розробників штучного інтелекту. За словами експертів, цей інструмент допоможе просувати вітчизняні проєкти в країнах ЄС.

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду