Компанія OpenAI заявила про підвищення рівня безпеки ChatGPT
Компанія OpenAI заявила про підвищення рівня безпеки ChatGPT
Американська компанія OpenAI, що створила чат-бот ChatGPT, оголосила про посилення заходів безпеки інтерактивного продукту на основі штучного інтелекту для захисту конфіденційності користувачів.
У своєму офіційному блозі компанія повідомила, що працює над тим, аби видалити з навчального набору даних ChatGPT інформацію про приватних осіб.
«Хоча деякі з наших навчальних даних включають особисту інформацію, доступну в загальнодоступному Інтернеті, ми хочемо, щоб наші моделі дізнавалися про світ, а не про приватних осіб. Тому ми працюємо над видаленням особистої інформації з навчального набору даних, де це можливо, налаштовуємо моделі для відхилення запитів на особисту інформацію приватних осіб і відповідаємо на запити окремих осіб щодо видалення їх особистої інформації з наших систем. Ці кроки зводять до мінімуму ймовірність того, що наші моделі можуть генерувати відповіді, які містять особисту інформацію приватних осіб», — йдеться у повідомленні компанії.
Також в OpenAI заявили, що доклали значних зусиль, щоб звести до мінімуму потенціал їхніх моделей штучного інтелекту створювати контент, що шкодить дітям.
«Ми вимагаємо, щоб люди були віком від 18 років або старше від 13 років із дозволу батьків, щоб використовувати наші інструменти штучного інтелекту, і розглядаємо варіанти перевірки», — йдеться у блозі.
OpenAI також повідомила, що запобігає програмуванню технології для генерування ненависницького контенту й такого, що пропагує насильство та жорстокість.
За даними компанії, порівняно з попереднім варіантом новітня модель GPT-4 на 82% менш імовірно відповідатиме на запити щодо забороненого контенту. Для неї запроваджено систему для відстеження зловживань.
Нагадаємо, Італійська служба захисту даних наприкінці березня ініціювала розпочала розслідування щодо чатбота ChatGPT через підозру в порушенні правил збору даних, та на час перевірки заборонила доступ до нього.
Служба захисту даних звернула увагу на «відсутність будь-якої правової бази, яка виправдовує масовий збір і зберігання персональних даних з метою "навчання" алгоритмів, що лежать в основі роботи платформи».
Також італійська служба вказала на те, що хоч сервіс призначений для осіб, які досягли 13-річного віку, відсутність фільтрів для перевірки віку користувачів наражає неповнолітніх на відповіді, які абсолютно не відповідають їхньому рівню розвитку та самосвідомості.
У Канаді Офіс комісара з питань приватності Канади також розпочав розслідування щодо можливого неналежного використання особистих даних чат-ботом ChatGPT.
Фото: chat-gpt.org