Регулювання штучного інтелекту та майбутнє інформації: про що говорили на European Regional AI4IA Conference
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Регулювання штучного інтелекту та майбутнє інформації: про що говорили на European Regional AI4IA Conference
27 вересня відбулась Європейська регіональна конференція «Штучний інтелект для доступності інформації» (European Regional Artificial Intelligence for Information Accessibility (AI4IA) Conference).
Модераторкою двох панелей заходу стала консультантка з медіаправа, членкиня програми ЮНЕСКО «Інформація для всіх» (IFAP) Дарія Опришко.
Перша панель конференції була присвячена майбутньому інформації. Спікери обговорили питання, пов'язані із модерацією контенту за допомогою штучного інтелекту та роль ШІ в поширенні дезінформації. Учасники заходу дискутували про вплив штучного інтелекту на журналістику й медіа, доступ до новинного контенту в епоху ШІ, а також про те, як медіа реагують на дії зі збирання контенту, які підживлюють моделі ШІ.
Спікерами цієї панелі стали:
- Ніколь Стремлау, керівниця програми з порівняльного медіаправа та політики, доцентка Центру соціально-правових досліджень Оксфордського університету, професорка Школи комунікацій Йоганнесбурзького університету;
- Джованні Де Грегоріо, керівник кафедри права і технологій у Католицькій глобальній школі права;
- Вікторія Романюк, голова робочої групи IFAP з інформаційної етики, директорка Могилянської школи журналістики НаУКМА, редакторка фактчекінгового проєкту StopFake;
- Агнес Е. Венема, експертка з політики в галузі безпеки, дослідниця факультету інформаційної політики та управління університету Мальти;
- Лідія Дуткевич, дослідниця в Центрі ІТ та права інтелектуальної власності KU Leuven — imec.
Ніколь Стремлау зазначила, що зараз світ спостерігає зміни у ставленні до ШІ та новітніх технологій загалом: від ейфорії та ентузіазму до занепокоєння зростанням кількості дезінформації внаслідок використання цих технологій.
Вікторія Романюк розказала, що використання ШІ в дезінформаційних кампаніях стало новим викликом для України під час повномасштабного російського вторгнення. Редакторка StopFake розповіла про п’ять міжнародних дезінформаційних кампаній, які навесні цього року викрили дослідники OpenAI.
В межах цих кампаній ШІ використовувався, щоб маніпулювати суспільною думкою та впливати на політику. За розповсюдженням дезінформації стояли державні установи та приватні компанії з Росії, Китаю, Ірану та Ізраїлю. OpenAI виділили дві найбільш масштабні за своїм впливом кампанії: російську Doppelganger та китайську Spamouflage.
- Читайте також: Операція «Doppelganger»: два роки антиукраїнської пропаганди
Дослідниця Агнес Венема продовжила дискусію щодо порушеного Вікторією Романюк питання про вплив дипфейків на демократичне суспільство. Однак якщо Романюк говорила про використання дипфейків для створення фейків з відомими політиками та громадськими діячами, то Венема завважила, що цей метод синтезу зображення та голосу шкідливий і на особистісному рівні. За допомогою якісно створеного дипфейку люди можуть дискредитовувати та ображати гідність своїх колег, знайомих, партнерів тощо.
Особливо небезпечним наразі є розповсюдження дипфейк-порнографії (націленої переважно на жінок) для розваги або помсти. Це може буквально зруйнувати життя жінкам, що стали жертвами такого контенту, наголосила Агнес Венема.
Лідія Дуткевич у своїй промові приділила увагу «стосункам» медіа та соціальних мереж. «Звіт Digital News Report британського Інституту Reuters стверджує, що соцмережі нині є основним онлайн-ресурсом, де люди читають новини. Лише 20% користувачів шукають новини на новинних вебсайтах або в застосунках. Крім того, у сприйнятті інформації велику роль відіграють інфлюенсери та короткі відео», — розповіла Дуткевич.
Завдяки «platformed publishing» (публікації платформами) новинні медіа дуже слабко контролюють те, як їхній контент буде поширений у соцмережах. За словами Дуткевич, деякі дослідники стверджують, що всі процеси в новинних медіа — від створення матеріалів до їх поширення і сприйняття — тепер організовані навколо соцмереж та їхньої логіки. Медійники нині мусять адаптовувати свій контент так, щоб його «підхоплювати» соцмережі.
На думку Лідії Дуткевич, кейси обмежень та блокувань, що застосовуються до матеріалів медіа в соцмережах (зокрема, щодо дописів українських новинарів про російсько-українську війну), повинні бути зібрані та проаналізовані дослідниками у сфері інформації. Це може допомогти кращій модерації контенту.
Друга панель конференції стосувалась питань, пов’язаних з правовим регулюванням штучного інтелекту в контексті доступу до інформації. Спікери розглянули регулювання ШІ як частину міжнародних стандартів доступу до офіційної інформації, а також загрози та можливості застосування ШІ й машинного навчання для доступу до інформації. Ддоповідачі поговорили про правові аспекти поширення дезінформації в епоху ШІ в Європейському Союзі та Україні, а також шляхи, якими неурядовий сектор може впливати на розробку політики щодо штучного інтелекту.
Спікери цієї панелі:
- Тетяна Олексіюк, експертка з питань доступу до публічної інформації та регулювання відкритих даних;
- Марія Жуфова, наукова співробітниця Інституту Європейського університету у Флоренції;
- Ольга Батура, старша наукова співробітниця університету Мюнстера (Німеччина);
- Вікторія Войціцька, юридична консультантка з напряму розвитку штучного інтелекту в Міністерстві цифрової трансформації України;
- Тетяна Авдєєва, старша юристка Лабораторії цифрової безпеки, членкиня Незалежної медійної ради та експертка Експертного комітету з питань штучного інтелекту при Міністерстві цифрової трансформації України.
Ольга Батура підкреслила важливість тих регуляторних актів щодо штучного інтелекту, які в ЄС уже сформовані та використовуються. Однак вона також виділила три серйозні прогалини в законодавстві, а саме:
- Посилення законодавчого контролю. На думку Батури, попри наявний контроль розповсюдження дезінформації, переважно він здійснюється постфактум — «помічай та видаляй». Жодна з інтернет-платформ не зобов’язана фільтрувати завантажений контент, тобто попереднього контролю не існує.
- Боротьба з дипфейками. Стаття 50 Регламенту про штучний інтелект (AI Act) містить вимоги щодо прозорості у використанні ШІ тільки до бізнес-діячів. AI Act ніяк не регулює створення дипфейків звичайними користувачами.
- «ШІ-галюцинації». Часто штучний інтелект генерує таку відповідь на запит, яка містить неправдиву або оманливу інформацію, подану як факт. Однак перевіряти твердження, сформовані штучним інтелектом, вміють переважно фахівці у сфері медіаграмотності. Положення про ШІ-грамотність не орієнтовані на широкі верстви населення, які є кінцевими користувачами контенту, створеного штучним інтелектом. ШІ-грамотність поки не є частиною загальної медіа-/цифрової грамотності.
Вікторія Войціцька розповіла, що за кількістю IT-фахівців Україна посідає друге місце в Центральній та Східній Європі. За останні 10 років кількість українських спеціалістів у галузі ШІ та машинного навчання зросла у п’ять разів, нині це близько 5200 професіоналів.
«В Україні працює понад 240 компаній у сфері штучного інтелекту. Тут були створені такі відомі в усьому світі ШІ-стартапи, як Grammarly, Preply та People.ai», — зауважила Вікторія.
Також Войціцька детально розповіла про етапи імплементації Акту ЄС про штучний інтелект в Україні. Зокрема, Міністерство цифрової трансформації України вже надало комплексні рекомендації з використання ШІ журналістам, працівникам шкіл та фахівцям у галузі реклами та піару. Найближчим часом поради будуть сформовані також для розробників, юристів, закладів вищої освіти й тих, хто займається питаннями інтелектуальної власності.
Читайте також:
- Виклики для медіа 2025: ШІ, модерація та регуляція платформ, втома від новин
- Meta не приєдналася до угоди про регулювання ШІ до повного набуття чинності в ЄС закону про ШІ
- В Україні вперше зареєстрували авторське право на твори із зображеннями, згенерованими ШІ
- Дипфейк Дмитра Кулеби телефонував сенатору США, щоб розпитати про удари по Росії
- Росія створила більше ШІ-матеріалів для впливу на вибори в США, ніж будь-хто інший, — Reuters