ЄС опублікував етичні рекомендації для розробки систем штучного інтелекту: конфіденційність даних, прозорість, підзвітність

ЄС опублікував етичні рекомендації для розробки систем штучного інтелекту: конфіденційність даних, прозорість, підзвітність

11:25,
9 Квітня 2019
4030

ЄС опублікував етичні рекомендації для розробки систем штучного інтелекту: конфіденційність даних, прозорість, підзвітність

11:25,
9 Квітня 2019
4030
ЄС опублікував етичні рекомендації для розробки систем штучного інтелекту: конфіденційність даних, прозорість, підзвітність
ЄС опублікував етичні рекомендації для розробки систем штучного інтелекту: конфіденційність даних, прозорість, підзвітність
Автори:
«Рекомендації для надійного штучного інтелекту» розробила група незалежних експертів.

Рекомендації опублікували на сайті Єврокомісії. Їхній проект оприлюднили у грудні 2018 року, після чого автори отримали близько 500 правок, які враховані в оновленому переліку. Детальніше ці вимоги Єврокомісія буде обговорювати з компаніями та державними установами влітку 2019 року та на початку 2020-го.

Оновлений список містить такі пункти:

  • Людська діяльність та нагляд. Системи штучного інтелекту повинні забезпечувати справедливі суспільства, підтримуючи людську діяльність та основні права, а не зменшувати, обмежувати або вводити в оману людську автономію.
  • Надійність та безпечність. У вартого довіри штучного інтелекту алгоритми мають бути безпечними, надійними і достатньо дужими для вирішення помилок або невідповідностей протягом всіх фаз життєвого циклу системи.
  • Конфіденційність та управління даними. Громадяни повинні мати повний контроль над власними даними, а дані, що стосуються їх, не можуть бути використані для заподіяння шкоди або дискримінації.
  • Прозорість. Необхідно забезпечити відстеження систем штучного інтелекту.
  • Різноманітність, недискримінація та справедливість. Системи штучного інтелекту повинні враховувати весь спектр людських здібностей, навичок та вимог та забезпечувати доступність для всіх.
  • Добробут суспільства та навколишнього середовища. Штучний інтелект повинен використовуватися для посилення позитивних соціальних змін та підвищення стійкості та екологічної відповідальності.
  • Підзвітність. Необхідно запровадити механізми для забезпечення відповідальності та підзвітності систем штучного інтелекту та їхніх результатів.

Раніше «Детектор медіа» писав, що через вміння писати фейкові новини дослідники обмежили доступ до нового штучного інтелекту.

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
securityintelligence.com
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду