Європол попередив про ризики використання ChatGPT зловмисниками
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Європол попередив про ризики використання ChatGPT зловмисниками
Поліцейська служба Європейського союзу опублікувала терміновий звіт, у якому попередила про ризики застосування ChatGPT та інших систем зі штучним інтелектом у злочиних цілях: для онлайн-шахрайства, поширення дезінформації та вчинення кіберзлочинів, повідомив Euractiv.
Звіт підготували після серії семінарів, організованих Інноваційною лабораторією Європолу для обговорення потенціалу злочинного використання ChatGPT.
Експерти виявили цілу низку незаконних випадків використання ChatGPT, які зберігаються і в найпросунутішій моделі OpenAI — GPT-4 — де потенціал шкідливих реакцій системи в деяких випадках навіть вищий.
«Злочинці зазвичай швидко використовують нові технології і швидко вигадали конкретні кримінальні способи експлуатації, представивши перші практичні приклади лише через кілька тижнів після публічного випуску ChatGPT», — йдеться у звіті.
Оскільки ChatGPT може генерувати інформацію, придатну для читання, у Європолі вважають, що нова технологія може прискорити процес дослідження зловмисником без попередніх знань про потенційну сферу злочину, таку як проникнення в будинок, тероризм, кіберзлочинність або сексуальне насильство над дітьми.
«Хоча вся інформація, яку надає ChatGPT, знаходиться у вільному доступі в Інтернеті, можливість використовувати модель для надання конкретних кроків, ставлячи контекстуальні питання, значно полегшує зловмисникам завдання кращого розуміння та подальшого провадження різних видів злочинів», — йдеться у звіті.
Фішинг, практика надсилання фальшивого електронного листа з метою змусити користувачів перейти за посиланням, є найважливішою сферою застосування. У минулому такі шахрайства легко виявлялися через граматичні або мовні помилки, у той час як текст, згенерований штучним інтелектом, дозволяє видати себе за іншого в дуже реалістичній манері.
Також, за твердженням фахівців Європолу, онлайн-шахрайству зможуть надавати більшу правдоподібність, використовуючи ChatGPT для створення фальшивої активності в соціальних мережах.
Здатність штучного інтелекту підлаштовуватися під стиль мовлення конкретних людей може привести до випадків зловживань щодо поширення пропаганди, мови ненависті та дезінформації.
Крім простого тексту, ChatGPT може створювати код різними мовами програмування, це дає потенційну можливість зловмисникам, які практично не мають знань у сфері IT, з перетворення природної мови на шкідливе програмне забезпечення.
«Дуже важливо, що заходи захисту, які не дозволяють ChatGPT надавати потенційно шкідливий код, працюють тільки в тому випадку, якщо модель розуміє, що вона робить. Якщо підказки розбиті на окремі кроки, обійти ці заходи безпеки простіше», — зазначено у звіті.
Нагадаємо, у лютому дослідники компанії NewsGuard, яка відстежує дезінформацію в інтернеті, прогнозували, що ChatGPT може зробити створення фейків значно простішим для розповсюджувачів неправдивих наративів.
Генеральний директор OpenAI зізнався, що «трохи боїться» їхнього створення ChatGPT і попередив, що штучний інтелект зможе «усунути» багато робочих місць.
Фото: europol.europa.eu