Європол попередив про ризики використання ChatGPT зловмисниками

Європол попередив про ризики використання ChatGPT зловмисниками

10:52,
29 Березня 2023
1973

Європол попередив про ризики використання ChatGPT зловмисниками

10:52,
29 Березня 2023
1973
Європол попередив про ризики використання ChatGPT зловмисниками
Європол попередив про ризики використання ChatGPT зловмисниками
Перші випадки застосування у шахрайських цілях зафіксували через кілька тижнів після випуску ChatGPT.

Поліцейська служба Європейського союзу опублікувала терміновий звіт, у якому попередила про ризики застосування ChatGPT та інших систем зі штучним інтелектом у злочиних цілях: для онлайн-шахрайства, поширення дезінформації та вчинення кіберзлочинів, повідомив Euractiv.

Звіт підготували після серії семінарів, організованих Інноваційною лабораторією Європолу для обговорення потенціалу злочинного використання ChatGPT.

Експерти виявили цілу низку незаконних випадків використання ChatGPT, які зберігаються і в найпросунутішій моделі OpenAI — GPT-4 — де потенціал шкідливих реакцій системи в деяких випадках навіть вищий.

«Злочинці зазвичай швидко використовують нові технології і швидко вигадали конкретні кримінальні способи експлуатації, представивши перші практичні приклади лише через кілька тижнів після публічного випуску ChatGPT», — йдеться у звіті.

Оскільки ChatGPT може генерувати інформацію, придатну для читання, у Європолі вважають, що нова технологія може прискорити процес дослідження зловмисником без попередніх знань про потенційну сферу злочину, таку як проникнення в будинок, тероризм, кіберзлочинність або сексуальне насильство над дітьми.

«Хоча вся інформація, яку надає ChatGPT, знаходиться у вільному доступі в Інтернеті, можливість використовувати модель для надання конкретних кроків, ставлячи контекстуальні питання, значно полегшує зловмисникам завдання кращого розуміння та подальшого провадження різних видів злочинів», — йдеться у звіті.

Фішинг, практика надсилання фальшивого електронного листа з метою змусити користувачів перейти за посиланням, є найважливішою сферою застосування. У минулому такі шахрайства легко виявлялися через граматичні або мовні помилки, у той час як текст, згенерований штучним інтелектом, дозволяє видати себе за іншого в дуже реалістичній манері.

Також, за твердженням фахівців Європолу, онлайн-шахрайству зможуть надавати більшу правдоподібність, використовуючи ChatGPT для створення фальшивої активності в соціальних мережах.

Здатність штучного інтелекту підлаштовуватися під стиль мовлення конкретних людей може привести до випадків зловживань щодо поширення пропаганди, мови ненависті та дезінформації.

Крім простого тексту, ChatGPT може створювати код різними мовами програмування, це дає потенційну можливість зловмисникам, які практично не мають знань у сфері IT, з перетворення природної мови на шкідливе програмне забезпечення.

«Дуже важливо, що заходи захисту, які не дозволяють ChatGPT надавати потенційно шкідливий код, працюють тільки в тому випадку, якщо модель розуміє, що вона робить. Якщо підказки розбиті на окремі кроки, обійти ці заходи безпеки простіше», — зазначено у звіті.

Нагадаємо, у лютому дослідники компанії NewsGuard, яка відстежує дезінформацію в інтернеті, прогнозували, що ChatGPT може зробити створення фейків значно простішим для розповсюджувачів неправдивих наративів.

Генеральний директор OpenAI зізнався, що «трохи боїться» їхнього створення ChatGPT і попередив, що штучний інтелект зможе «усунути» багато робочих місць.

Фото: europol.europa.eu 

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду