В OpenAI визнали, що GPT-4 несе ризик створення біологічної зброї

В OpenAI визнали, що GPT-4 несе ризик створення біологічної зброї

11:19,
1 Лютого 2024
1418

В OpenAI визнали, що GPT-4 несе ризик створення біологічної зброї

11:19,
1 Лютого 2024
1418
В OpenAI визнали, що GPT-4 несе ризик створення біологічної зброї
В OpenAI визнали, що GPT-4 несе ризик створення біологічної зброї
Автори:
Хоча цей ризик достатньо невеликий, кажуть дослідники, відкриття є відправною точкою для продовження досліджень і професійного обговорення проблеми.

Найпотужніший штучний інтелект GPT-4 може допомогти людям у створенні біологічної зброї. Про це повідомляє Bloomberg, посилаючись на результати досліджень, які провела OpenAI. 

«Згідно з першими тестами, які компанія провела для кращого розуміння та запобігання потенційній “катастрофічній” шкоді від своєї технології, найпотужніша програма штучного інтелекту OpenA — GPT-4 — становить “щонайбільше” невеликий ризик допомогти людям у створенні біологічних загроз», — ідеться в статті.

Її автори зазначають, що протягом кількох місяців політики та експерти висловлювали занепокоєння щодо питання, чи може ШІ полегшити зловмисникам завдання розробити біологічну зброю.  Зокрема, йшлося про можливе використання чатботів для пошуку інформації про те, як спланувати атаку.

OpenAI сформувала команду, яка зосереджена на мінімізації цих та інших ризиків від ШІ. У рамках першого дослідження компанія зібрала групу з 50 експертів з біології та 50 студентів, які вивчали біологію на рівні коледжу. Половині учасників було запропоновано виконати завдання, пов’язані зі створенням біологічної загрози за допомогою інтернету разом зі спеціальною версією GPT-4. Інша група для виконання вправи отримала лише доступ до інтернету.

Команда OpenAI попросила групи з’ясувати, як отримати хімічну речовину, яку можна було б використовувати як зброю в доволі великій кількості, щоб спрямувати проти певної групи людей. 

Порівнюючи результати, отримані двома групами, автори дослідження виявили незначне підвищення «точності та повноти для тих, хто має доступ до мовної моделі». Дослідники дійшли висновку, що доступ до GPT-4 забезпечує помірне підвищення ймовірності отримання інформації для створення біологічної загрози.

Це дослідження, пише Bloomberg, є одним із кількох, над якими працюють в OpenAI для того, щоб зрозуміти потенціал зловживання, який несе в собі широке використання GPT-4. Інші дослідження спрямовані на вивчення потенціалу застосування ШІ для створення загроз кібербезпеці та як інструменту впливу на людей для зміни їхніх переконань.

Нагадаємо, нещодавно компанія OpenAI вперше заблокувала розробників бота за використання технології штучного інтелекту для політичної кампанії. Перед тим OpenAI оновила свої правила та заборонила користувачам і розробникам застосовувати її інструменти у виборчих кампаніях та лобіюванні

Водночас OpenAI непомітно видалила формулювання у своїй політиці про заборону використання своєї технології у військових цілях. Хоча компанія не дозволяє користуватися її розробками для «завдання шкоди собі чи іншим», утім, загальна заборона на використання технологій у військовій справі зникла.

Фото: David Paul Morris / Bloomberg

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду