Провідні розробники штучного інтелекту зобов'язалися посилити заходи проти сексуального насильства над дітьми онлайн
Провідні розробники штучного інтелекту зобов'язалися посилити заходи проти сексуального насильства над дітьми онлайн
Технологічні корпорації, зокрема OpenAI, Microsoft, Google, Meta та інші, спільно зобов’язалися запобігати використанню їхніх інструментів штучного інтелекту для експлуатації дітей і створення матеріалів про сексуальне насильство над дітьми (CSAM — child sexual abuse material). Ініціативу очолили правозахисна група Thorn та громадська організація All Tech Is Human, зосереджена на відстоюванні відповідального впровадження технологій. Про це повідомило видання Engadget.
Це зобов’язання «створює новаторський прецедент для галузі та є значним стрибком у зусиллях із захисту дітей від сексуального насильства як функції з розгортанням генеративного штучного інтелекту», йдеться у заяві Thorn. Мета ініціативи — запобігти створенню матеріалів відвертого сексуального характеру за участю дітей і видалити їх із соціальних мереж та пошукових систем. Тільки у 2023 році в США було зареєстровано понад 104 млн файлів з матеріалами, що мають ознаки сексуального насильства над дітьми, повідомили в організації. За відсутності колективних дій генеративний штучний інтелект може погіршити цю проблему та перевантажити правоохоронні органи, які вже намагаються ідентифікувати справжніх жертв.
Thorn і All Tech Is Human опублікували статтю під назвою «Безпека за проєктом для генеративного штучного інтелекту: Запобігання сексуальному насильству над дітьми», в якій описано стратегії та рекомендації для компаній, що створюють інструменти штучного інтелекту, є власниками пошукових систем, платформ соціальних мереж, надають хостинг, щодо заходів, які слід вжити, щоб запобігти використанню генеративного ШІ на шкоду дітям.
Зокрема, розробників штучного інтелекту просять уникати для його навчання наборів даних, які містять лише випадки сексуального насильства або контент сексуального характеру для дорослих, через схильність генеративного штучного інтелекту поєднувати ці дві концепції.
Компанії, що представляють платформи соціальних медіа та пошукові системи, просять видалити посилання на сайти та програми, які дозволяють людям «зображувати оголених» дітей.
«Цей проєкт мав на меті чітко прояснити, що не потрібно опускати руки. Ми хочемо мати можливість змінити напрямок розвитку цієї технології, щоб потенційна шкода цієї технології була знищена», — заявила віцепрезидентка Thorn із науки про дані Ребекка Портнофф виданню Wall Street Journal.
За її інформацією, окремі компанії вже погодилися відокремити зображення, відео та аудіо, які стосуються дітей, від наборів даних, що містять вміст для дорослих, щоб запобігти їх поєднанню під час навчання моделей ШІ. Інші також додають водяні знаки для ідентифікації створеного штучним інтелектом контенту, проте цей метод не є достатньо надійним, адже водяні знаки та метадані можна видалити.
Нагадаємо, всеукраїнська громадська організація «Магнолія» у співпраці з Міністерством цифрової трансформації та Департаментом кіберполіції запустили онлайн-платформу StopCrime, де можна повідомити про виявлений у мережі контент, що містить ознаки насильства над дітьми.
Фото: інструменти штучного інтелекту на смартфоні / Unsplash