
DeepSeek легше змусити створити шкідливий контент, ніж інші ШІ-моделі, — WSJ
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
DeepSeek легше змусити створити шкідливий контент, ніж інші ШІ-моделі, — WSJ


Моделлю R1 китайської компанії штучного інтелекту DeepSeek, яка сколихнула Силіконову долину та Волл-стріт, можна маніпулювати для створення шкідливого контенту, наприклад планів атаки з використанням біологічної зброї та кампанії з пропаганди самоушкоджень серед підлітків. Про це повідомляє The Wall Street Journal.
Cтарший віцепрезидент підрозділу з аналізу загроз та реагування на інциденти Palo Alto Networks, Сем Рубін сказав виданню, що DeepSeek «більш вразливий до джейлбрейку [тобто до маніпуляцій для створення незаконного або небезпечного контенту], ніж інші моделі».
У WSJ також протестували модель R1 від DeepSeek. Хоча базові запобіжні заходи в системі існують, журналісти змогли переконати DeepSeek розробити кампанію для соціальних мереж, яка, за словами чатбота, «грає на бажанні підлітків відчувати належність, використовуючи емоційну вразливість через алгоритмічне підсилення».
Також маніпулятивним чином змогли переконати чатбота надати інструкції для атаки з використанням біозброї, створити прогітлерівський маніфест і написати фішинговий електронний лист зі шкідливим кодом.
Водночас, за інформацією WSJ, коли ChatGPT отримав ті ж підказки до дій, він відмовився їх виконувати.
Нагадаємо, китайський стартап DeepSeek на початку цього місяця випустив нову модель штучного інтелекту з відкритим кодом під назвою R1. Стартап заявив, що R1 може змагатися або навіть перевершує провідні американські продукти за низкою галузевих тестів, зокрема для математичних задач і загальних знань, при цьому маючи значно нижчу вартість.
До 27 січня китайський DeepSeek став найпопулярнішим ШІ-асистентом у США, випередивши ChatGPT в Аpp Store. Пізніше і в Google Play.
На початку лютого в Нідерландах та Австралії заборонили використовувати застосунок зі штучним інтелектом китайської компанії DeepSeek на державних пристроях.
В Італії агентство із захисту даних Garante 30 січня заблокувало китайську модель штучного інтелекту DeepSeek, оскільки у відповідь від компанії не отримало достатньо інформації про використання нею персональних даних.
Фото: CBS News