Мертві політики, клони сайтів, генерування брехні. Як світ учиться захищати вибори від штучного інтелекту

Мертві політики, клони сайтів, генерування брехні. Як світ учиться захищати вибори від штучного інтелекту

11:00,
4 Листопада 2024
1000

Мертві політики, клони сайтів, генерування брехні. Як світ учиться захищати вибори від штучного інтелекту

11:00,
4 Листопада 2024
1000
Мертві політики, клони сайтів, генерування брехні. Як світ учиться захищати вибори від штучного інтелекту
Мертві політики, клони сайтів, генерування брехні. Як світ учиться захищати вибори від штучного інтелекту
Техногіганти та законодавці намагаються розв’язати проблему втручання у вибори за допомогою штучного інтелекту, але результати зусиль поки що невідомі.

Доступність інструментів штучного інтелекту стала причиною нової загрози, пов’язаної з їх використанням. Рік виборів, кульмінацією якого стане голосування за нового президента США, став ідеальним періодом тестування нових втручань у демократичні процеси за допомогою цієї технології. Чи вдалося ШІ «зламати демократію» так, як це зробила шість років тому компанія Cambridge Analytica, ймовірно, буде зрозуміло з часом. Проте, на відміну від історії шестирічної давнини, у 2024 році світ усвідомлює технологічну загрозу виборам і демократії загалом і готується давати відсіч таким маніпуляціям.

Подекуди ці спроби є успішними, часом — невдалими. Але цього разу захищати свободу волі виборців намагаються і технологічні компанії, і законотворці. А спецслужби протягом цього року не раз розповідали про виявлені кампанії прихованого впливу, які використовували технології штучного інтелекту.

Штучний інтелект як помічник маніпуляторів і фейкоробів

Протягом декількох останніх тижнів стало відомо про нові випадки використання штучного інтелекту для маніпуляцій, створених напередодні виборів. По-перше, це масштабна операція Doppelganger, яка передбачала створення підробних сторінок відомих медіа та просування потрібних замовникам наративів. Здебільшого ці фейкові Doppelganger-ресурси критикували місцеві уряди, просували наративи проти України й воєнної допомоги нашій країні, та й загалом намагалися «грати» на болючих у суспільстві темах.

Про використання штучного інтелекту в діях фейкоробів декілька разів у своїх аналітичних звітах розповідала компанія OpenAI — наприкінці весни вона і згадувала Doppelganger як приклад російської кампанії прихованого впливу. А в жовтні в новому звіті OpenAI компанія повідомляла про понад 20 операцій і шахрайських мереж, які використовували ChatGPT й аналоги з метою створення фейкового контенту та впливу на результати виборів. У цьому випадку — найближчих, на яких обиратимуть президента США. Meta так само у своїх документах розповідала про аналогічні операції впливу за допомогою ШІ.

Проте використання штучного інтелекту для генерації маніпулятивного контенту — це лише один зі способів перетворення ШІ на інструмент фейкоробів. Набагато масштабнішими стали дипфейк-відео, за допомогою яких намагаються маніпулювати виборами. Особливо масовою ця технологія стала в Індії — ШІ-клони використовуються в персоналізованих дзвінках виборцям, в рекламі, в якій подекуди створюють ШІ-копії вже померлих політиків. Останній за часом приклад — перший тур виборів президента в Молдові, де дипфейками чинної президентки Маї Санду намагалися знизити її підтримку та явку на референдумі.

Про масштаб політичних дипфейків розповіла компанія Google, точніше, її підрозділ Google DeepMind. Його фахівці разом зі спеціалістами Google Jigsaw у своєму дослідженні проаналізували ще один спосіб використання штучного інтелекту — а саме вивчили цілі створення дипфейків. Аналіз показав, що найчастіше дипфейки створюють для політиків саме з метою впливу на громадську думку. Жертвою дипфейків був і президент Байден — після того, як він оголосив про бажання балотуватися, його супротивники запустили в мережу штучно згенероване відео, на якому показано нібито світ, у якому Байден переміг.

Масовість використання штучного інтелекту й особливу залученість до цього російських спецслужб відзначають представники американських спецслужб. За їхніми повідомленнями, саме Росія створила більше ШІ-матеріалів, аніж будь-яка інша держава, а основна їхня мета — вплив на результат виборів у США та підтримка Дональда Трампа. Тож ми зараз спостерігаємо трансформацію роботи російської «фабрики тролів», яка активно працювала на виборах 2016 року, зокрема з такими інструментами як Cambridge Analytica, а тепер використовує штучний інтелект.

Імовірно, ШІ-креатура фейків, створених для виборів, дешевша, аніж оплата ботів та організація їх роботи, тому використання Росією штучного інтелекту з метою впливу на вибори було очевидним і навіть очікуваним кроком. Тепер важливим є те, чи зможуть інституції та технологічні компанії унеможливити або принаймні мінімізувати цей вплив. Принаймні спроби подолати цей вплив демонструють і американські законотворці, й технологічні компанії, чиї інструменти стали помічником у руках маніпуляторів і представників ворожих спецслужб.

Інституційний захист: закони та процедури проти ШІ-фейків і маніпуляцій

Одним із напрямків боротьби з таким використанням ШІ є прийняття відповідних законів. Якщо ідентифікувати та відповідно заборонити поширення політичних чи інших дипфейк-відео реально, то інші спроби використання штучного інтелекту для впливу на суспільну думку виявити та юридично заборонити надзвичайно складно.

Для використання штучного інтелекту з метою створення дипфейк-порно уже є відповідні законодавчі обмеження — такий закон є у Великій Британії, а в США представили законопроєкт для захисту жертв такого відео. Проте законодавчий захист для «виборчих» і «політичних» дипфейків лише набирає обертів. Ще торік у США було ухвалено федеральний «Закон про захист виборів від оманливого ШІ», який передбачає, що політики можуть через суд заборонити поширювати дипфейки з ними.

Окремі штати також намагаються обмежити використання ШІ та дипфейків у виборах. Так, на початку вересня у Каліфорнії було прийнято закони, які обмежували поширення дипфейків, пов’язаних із виборами. Один із цих законів не лише дає право обмежувати через суд поширення таких фейкових відео, але й забороняє ділитися дипфейками, дотичними до виборів. Закон матиме примусову силу протягом 120 днів до виборів і 60 днів після них.

Загалом половина штатів США намагається боротися проти ШІ-контенту на виборах за допомогою законів — у цих штатах були прийняті або розглянуті законопроєкти, що регулюють використання штучного інтелекту та дипфейків у передвиборчому процесі. Проте деякі з цих законів зустрілися з судовою забороною, до прикладу, саме каліфорнійський закон про дипфейки заблокував суддя через те, що цей документ, імовірно, порушує Першу поправку.

Технологічний захист від «поганого» ШІ

Технологічні компанії намагаються також боротися з проблемним використанням штучного інтелекту та поширенням ШІ-контенту. Ще на початку року техногіганти підписали спільну угоду про зобов’язання вжити кроків для запобігання використовувати ШІ для зриву виборів.

До прикладу, у згаданому вище звіті Meta про виявлення мережі акаунтів, які поширювали штучно згенерований контент, компанія розповідала про блокування цих профілів і ботмережі. Ще декілька місяців тому Meta заборонила використовувати штучний інтелект у політичній рекламі, що розміщується на платформі. Заборонив розміщувати такий контент і Twitter (X). Компанія також буде блокувати поширення політичної реклами за тиждень до голосування.

Схожі кроки щодо політичної реклами запроваджує Google — техногігант заблокує рекламу, дотичну до виборів, після завершення голосування. Це робиться, аби кандидати не заявляли достроково про свою перемогу, а ще — аби не повторилася історія чотирирічної давності, коли прихильники Дональда Трампа намагалися штурмувати Капітолій через незгоду з результатами підрахунку голосів. Окрім того, Google повідомлятиме користувачів, коли в рекламі міститимуться фрагменти штучно згенерованого контенту.

Ще декілька місяців тому техногіганти намагалися запровадити цифрові позначки для контенту, створеного людьми. Для цього була створена коаліція Coalition for Content Provenance and Authenticity (C2PA), яка розробила технічний стандарт метаданих. З його допомогою можна зрозуміти, чи є контент штучно згенерованим. Google уже вміє аналізувати цей контент і позначатиме зображення, що містять ШІ-елементи. І вже відкрила доступ до своєї технології з позначення спеціальними «водяними знаками» іншим виробникам будь-якого, текстового чи аудіовізуального контенту, створеного за допомогою ШІ. Проте технологія C2PA є ще досить сирою й поки не працює так, як хотілося б.

Деякі соціальні мережі намагаються взагалі відсторонитися від політичного контенту. Принаймні ця мета, озвучена Марком Цукербергом ще на початку 2021 року, поступово втілюється в політиках його компанії. До прикладу, Meta повідомила, що політичний контент узагалі не рекомендуватиметься користувачам платформ Instagram і Threads.

Нові й несподівані загрози

Експерти, які попереджали про ризики використання штучного інтелекту під час виборів, називали різні шляхи використання цієї технології. Дипфейки й іноземне втручання через вплив на громадську думку — не єдині способи використання ШІ на виборах. Називають й інші сценарії, до прикладу, стратегію відволікання людей, залучених до виборчого процесу, штучно згенерованими запитами та зверненнями, на які ті муситимуть відповідати. Ще один спосіб, про який наразі майже не говорять — це використання чатботів для генерації виборчих фейків. Проте цей шлях нині є лише гіпотетичним, адже галюцинації штучного інтелекту — відоме явище, а самі чатботи ще не стали основним інструментом споживання новин чи отримання інформації.

Ще одним несподіваним ризиком для майбутнього регулювання штучного інтелекту загалом і у виборчому процесі зокрема може стати обрання Дональда Трампа, який уже пообіцяв скасувати указ Джо Байдена про контроль над інструментами штучного інтелекту. Експерти попереджають, що відмова від цих положень щодо безпеки ШІ підірве надійність моделей штучного інтелекту. Тож майбутні президентські вибори можуть допомогти визначити, чи стане ШІ безпрецедентним інструментом продуктивності або ж неконтрольованим агентом хаосу.

Імовірно, 2024 рік стане таким тестовим періодом, під час якого людство вчитиметься виявляти та блокувати ШІ-кампанії прихованого впливу. З одного боку, судячи з повідомлень у медіа про виявлені операції, поки цей процес є доволі успішним. Водночас ми не знаємо про те, скільки, яких і наскільки успішних способів використання ШІ у політичних процесах ще було. Регуляторні та технологічні бар’єри для ШІ-контенту лише почасти зможуть заблокувати дії тих, хто за допомогою ШІ намагатиметься обманути виборців. Водночас рішення засновника Facebook повністю відгородитися від політики є зрозумілим, але малореальним — адже історія з маніпуляціями з боку Росії «руками» американських ютуб-блогерів та компанії Tenet дуже добре це продемонструвала.

2024-й став також репетицією для тих, хто намагався організовувати операції прихованого впливу за допомогою штучного інтелекту. Про справжній їх успіх, чи, навпаки, неуспіх ми дізнаємося за кілька років. На наступних виборах.

Ілюстрація: Getty Images

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду