ЄС опублікував етичні рекомендації для розробки систем штучного інтелекту: конфіденційність даних, прозорість, підзвітність
11:25,
9 Квітня 2019
3884
ЄС опублікував етичні рекомендації для розробки систем штучного інтелекту: конфіденційність даних, прозорість, підзвітність
11:25,
9 Квітня 2019
3884
Автори:
«Рекомендації для надійного штучного інтелекту» розробила група незалежних експертів.
Рекомендації опублікували на сайті Єврокомісії. Їхній проект оприлюднили у грудні 2018 року, після чого автори отримали близько 500 правок, які враховані в оновленому переліку. Детальніше ці вимоги Єврокомісія буде обговорювати з компаніями та державними установами влітку 2019 року та на початку 2020-го.
Оновлений список містить такі пункти:
- Людська діяльність та нагляд. Системи штучного інтелекту повинні забезпечувати справедливі суспільства, підтримуючи людську діяльність та основні права, а не зменшувати, обмежувати або вводити в оману людську автономію.
- Надійність та безпечність. У вартого довіри штучного інтелекту алгоритми мають бути безпечними, надійними і достатньо дужими для вирішення помилок або невідповідностей протягом всіх фаз життєвого циклу системи.
- Конфіденційність та управління даними. Громадяни повинні мати повний контроль над власними даними, а дані, що стосуються їх, не можуть бути використані для заподіяння шкоди або дискримінації.
- Прозорість. Необхідно забезпечити відстеження систем штучного інтелекту.
- Різноманітність, недискримінація та справедливість. Системи штучного інтелекту повинні враховувати весь спектр людських здібностей, навичок та вимог та забезпечувати доступність для всіх.
- Добробут суспільства та навколишнього середовища. Штучний інтелект повинен використовуватися для посилення позитивних соціальних змін та підвищення стійкості та екологічної відповідальності.
- Підзвітність. Необхідно запровадити механізми для забезпечення відповідальності та підзвітності систем штучного інтелекту та їхніх результатів.
Раніше «Детектор медіа» писав, що через вміння писати фейкові новини дослідники обмежили доступ до нового штучного інтелекту.
Читайте також
securityintelligence.com
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.