Китайські дослідники використали мовну модель Meta для розробки чатбота ШІ, — Reuters

Китайські дослідники використали мовну модель Meta для розробки чатбота ШІ, — Reuters

14:12,
4 Листопада 2024
885

Китайські дослідники використали мовну модель Meta для розробки чатбота ШІ, — Reuters

14:12,
4 Листопада 2024
885
Китайські дослідники використали мовну модель Meta для розробки чатбота ШІ, — Reuters
Китайські дослідники використали мовну модель Meta для розробки чатбота ШІ, — Reuters
Велика мовна модель була випущена із відкритим кодом.

Науковці із чотирьох провідних китайських дослідницьких використали ранню версію великої мовної моделі Llama корпорації Meta для розробки інструмента штучного інтелекту ChatBIT для потенційного військового застосування. Про це повідомило агенство Reuters на основі ознайомлення із трьома науковими публікаціями та спілкування з аналітиками.

Відповідно до червневої публікації, з яким ознайомилося агенство, шестеро дослідників представляють чотири установи, дві з яких підпорядковуються «Академії військових наук» Народно-визвольної армії Китаю.

Вони використали велику мовну модель Llama 13B із відкритим кодом, випущену корпорацією Meta у 2023 році, для побудови на її основі власного інструмента штучного інтелекта, орієнтованого на потреби військових. Зокрема, для збору та обробки розвідувальних даних, та отримання надійної інформації для оперативних рішень.

ChatBIT був точно налаштований і «оптимізований для діалогу та завдань із відповідями на запитання у військовій сфері», йшлося у науковій публікації.

Дослідники не уточнили його продуктивність, та чи була модель ШІ введена в експлуатацію.

Разом із цим у публікації зазначалося, що у подальшому «завдяки технологічному вдосконаленню ChatBIT буде застосовуватися не тільки для аналізу розвідувальних даних, але також ... для стратегічного планування, навчання симуляції та прийняття командних рішень».

«Це перший випадок, коли є вагомі докази того, що військові експерти НВА у Китаї систематично досліджували та намагалися використовувати потужність LLM з відкритим кодом від Meta для військових цілей», — прокоментував агенству науковий співробітник «Фонду Джеймстауна», який спеціалізується на нових технологіях подвійного використання у Китаї, включаючи штучний інтелект, Санні Ченг.

Корпорація Meta заявила, що використання її мовної моделі для розробки інструмента ШІ військового спрямування є несанкціонованим, та суперечить політиці компанії.

«Будь-яке використання наших моделей Народно-визвольною армією є несанкціонованим і суперечить нашій політиці прийнятного використання», — заявила директорка з громадської політики Meta Моллі Монтгомері.

Reuters не зміг підтвердити можливості та обчислювальну потужність ChatBIT. Водночас дослідники звернули увагу на те, що застосована велика мовна модель навчалася лише на 100 тисячах записах військових діалогів, що значно менше, ніж в інших великих мовних моделях.

«Це крапля в морі порівняно з більшістю цих моделей, які навчені трильйонами токенів, тому … це дійсно змушує мене сумніватися, чого вони насправді досягають тут з точки зору різних можливостей», — поокоментувала віце-президентка Meta AI та професорка інформатики університету Макгілла у Канаді Джоель Піно.

Інформація про створення китайського ChatBIT на основі великомовної моделі Meta зявилася в час запеклих дискусій у колах фахівців із національної безпеки та технологій у США про те, чи мають технологічні компанії робити загальнодоступними коди своїх моделей штучного інтелекту.

Корпорація Meta випустила низку моделей ШІ із відкритим кодом, включно із Llama. Онлайн-сервіси та платформи, що мають понад 700 мільйонами користувачів, можуть використовувати її на ліценззійних правах.

Умови також забороняють використовувати моделі для «оборонної, військової та ядерної галузей або з метою шпигунства» та іншої діяльності, яка підпадає під звборону у США, зокрема розробки зброї та медіаконтенту, що сприяє розпалюванню ворожнечі та поширенню насильства.

З огляду на те, що моделі Meta є відкритими, компанія має обмежені способи забезпечення виконання цих положень.

Фото: Meta AI / Getty Images

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду