Розвідка Канади: Іноземні хакери за кілька років можуть перетворити ШІ на зброю проти демократичних країн

Розвідка Канади: Іноземні хакери за кілька років можуть перетворити ШІ на зброю проти демократичних країн

14:22,
10 Грудня 2023
1801

Розвідка Канади: Іноземні хакери за кілька років можуть перетворити ШІ на зброю проти демократичних країн

14:22,
10 Грудня 2023
1801
Розвідка Канади: Іноземні хакери за кілька років можуть перетворити ШІ на зброю проти демократичних країн
Розвідка Канади: Іноземні хакери за кілька років можуть перетворити ШІ на зброю проти демократичних країн
У Центрі з безпеки комунікацій Канади також побоюються, що можливості створення дипфейкових фото й відео можуть перевищити спроможність їх виявляти.

Стрімкий розвиток технологій генеративного штучного інтелекту дасть зловмисникам змогу перетворити їх на зброю проти демократичних держав. Про це йдеться у звіті канадської спецслужби, відповідальної за кібербезпеку федерального уряду, передає Укрінформ.

Центр з безпеки комунікацій зауважив, що хакери вже використовують цю технологію для досягнення стратегічних політичних цілей за кордоном. Зокрема, проросійські кіберзлочинці застосовували генеративний ШІ, щоб створити дипфейк президента України Володимира Зеленського, який нібито оголошує капітуляцію після повномасштабного вторгнення Росії.

«За нашою оцінкою, іноземні зловмисники та хакери, вірогідно, протягом двох наступних років перетворять генеративний штучний інтелект на зброю, створюючи дипфейкові відео та зображення із політиками й урядовцями, а також посилюючи та автоматизуючи неавтентичні мережі ботів у соціальних мережах з використання тексту й зображень», — йдеться у звіті канадських спецслужб.

Фахівці також прогнозують, що можливості створення дипфейків можуть перевищити спроможність їх виявляти, оскільки доступні наразі моделі виявлення вже мають складнощі з достеменним відстежуванням підробленого та реального контенту.

«Зважаючи на низьку ефективність виявлення дипфейків і поширення генеративного штучного інтелекту, кампанії впливу на виборців з використанням генеративного штучного інтелекту, ймовірно, виявлятимуться все менше», — вважають у спецслужбі.

Автори звіту побоюються, що виборчі дебати можуть стати одним із ключових джерел походження антидемократичних дипфейків, які вводитимуть громадян в оману: «Навіть якщо правду буде згодом встановлено, завдана шкода може спонукати виборців до сумнівів у легітимності політичних дебатів у майбутньому».

Нагадаємо, нещодавно корпорація Microsoft запропонувала американським політикам і передвиборчим групам інструмент протидії дипфейкам напередодні президентських виборів 2024 року. Новий інструмент дасть сторонам змогу автентифікувати свої відео та фотографії за допомогою так званих облікових даних із водяним знаком.

Корпорація запустить сервіс Content Credentials навесні як приватну попередню версію, що спершу буде доступною для політичних кампаній. За даними компанії, користувачі зможуть прикріплювати їх до своїх зображень або відео, щоб показати, як, коли та ким вони були створені або відредаговані, включно з тим, чи застосовували ШІ.

Фото: Unsplash

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду