Американський інститут безпеки ШІ тестуватиме мовні моделі OpenAI і Anthropic
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Американський інститут безпеки ШІ тестуватиме мовні моделі OpenAI і Anthropic
Уряд США оголосив про угоди з провідними розробниками штучного інтелекту OpenAI і Anthropic про залучення новоствореного Інституту безпеки ШІ до тестування їхніх моделей. Про це повідомило Bloomberg.
Згідно з цими угодами, Інститут безпеки штучного інтелекту США отримає від компаній ранній доступ до основних нових моделей штучного інтелекту для оцінки можливостей і ризиків, а також для співпраці над методами пом’якшення потенційних проблем.
Інститут безпеки ШI є частиною Національного інституту стандартів і технологій Міністерства торгівлі США.
«Безпека має важливе значення для стимулювання проривних технологічних інновацій. Ці угоди — лише початок, але вони є важливою віхою, оскільки ми працюємо над тим, щоб допомогти відповідально керувати майбутнім ШІ»,— заявила директорка Інституту безпеки ШІ Елізабет Келлі.
Очікується тісна співпраця з британським Інститутом безпеки штучного інтелекту для покращення безпечності ШІ. Організації раніше заявили, що працюватимуть разом над впровадженням стандартизованого тестування.
«Ми рішуче підтримуємо місію Інституту безпеки штучного інтелекту США та сподіваємося на спільну роботу, щоб поінформувати про найкращі практики та стандарти безпеки для моделей штучного інтелекту», — запевнив у заяві головний стратегічний директор OpenAI Джейсон Квон.
«Ми вважаємо, що інститут відіграє вирішальну роль у визначенні лідерства США у відповідальному розвитку штучного інтелекту, і сподіваємося, що наша спільна робота запропонує структуру, на яку може спиратися решта світу», — додав він.
Anthropic також заявив, що важливо створити потенціал для ефективного тестування моделей ШІ. «Безпечний, надійний штучний інтелект має вирішальне значення для позитивного впливу технології, — заявив співзасновник Anthropic Джек Кларк. — Це зміцнює нашу здатність виявляти та зменшувати ризики, сприяючи відповідальній розробці ШІ. Ми пишаємося тим, що робимо внесок у цю життєво важливу роботу, встановлюючи нові стандарти для безпечного та надійного ШІ».
Інститут безпеки штучного інтелекту США був створений у 2023 році на виконання наказу адміністрації президента Байдена про штучний інтелект. Його завданням є розробка тестування, оцінювання та вказівок щодо відповідальних інновацій ШІ.
- Читайте також: Джо Байден видав указ про штучний інтелект
Фото: умовне / veracitiz