Американський інститут безпеки ШІ тестуватиме мовні моделі OpenAI і Anthropic

Американський інститут безпеки ШІ тестуватиме мовні моделі OpenAI і Anthropic

17:10,
29 Серпня 2024
885

Американський інститут безпеки ШІ тестуватиме мовні моделі OpenAI і Anthropic

17:10,
29 Серпня 2024
885
Американський інститут безпеки ШІ тестуватиме мовні моделі OpenAI і Anthropic
Американський інститут безпеки ШІ тестуватиме мовні моделі OpenAI і Anthropic
Спільно з британцями фахівці впроваджуватимуть стандартизоване тестування ШІ-систем.

Уряд США оголосив про угоди з провідними розробниками штучного інтелекту OpenAI і Anthropic про залучення новоствореного Інституту безпеки ШІ до тестування їхніх моделей. Про це повідомило Bloomberg.

Згідно з цими угодами, Інститут безпеки штучного інтелекту США отримає від компаній ранній доступ до основних нових моделей штучного інтелекту для оцінки можливостей і ризиків, а також для співпраці над методами пом’якшення потенційних проблем.

Інститут безпеки ШI є частиною Національного інституту стандартів і технологій Міністерства торгівлі США.

«Безпека має важливе значення для стимулювання проривних технологічних інновацій. Ці угоди — лише початок, але вони є важливою віхою, оскільки ми працюємо над тим, щоб допомогти відповідально керувати майбутнім ШІ»,— заявила директорка Інституту безпеки ШІ Елізабет Келлі.

Очікується тісна співпраця з британським Інститутом безпеки штучного інтелекту для покращення безпечності ШІ. Організації раніше заявили, що працюватимуть разом над впровадженням стандартизованого тестування.

«Ми рішуче підтримуємо місію Інституту безпеки штучного інтелекту США та сподіваємося на спільну роботу, щоб поінформувати про найкращі практики та стандарти безпеки для моделей штучного інтелекту», — запевнив у заяві головний стратегічний директор OpenAI Джейсон Квон.

«Ми вважаємо, що інститут відіграє вирішальну роль у визначенні лідерства США у відповідальному розвитку штучного інтелекту, і сподіваємося, що наша спільна робота запропонує структуру, на яку може спиратися решта світу», — додав він.

Anthropic також заявив, що важливо створити потенціал для ефективного тестування моделей ШІ. «Безпечний, надійний штучний інтелект має вирішальне значення для позитивного впливу технології, — заявив співзасновник Anthropic Джек Кларк. — Це зміцнює нашу здатність виявляти та зменшувати ризики, сприяючи відповідальній розробці ШІ. Ми пишаємося тим, що робимо внесок у цю життєво важливу роботу, встановлюючи нові стандарти для безпечного та надійного ШІ».

Інститут безпеки штучного інтелекту США був створений у 2023 році на виконання наказу адміністрації президента Байдена про штучний інтелект. Його завданням є розробка тестування, оцінювання та вказівок щодо відповідальних інновацій ШІ.

Фото: умовне / veracitiz

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду