В OpenAI визнали, що GPT-4 несе ризик створення біологічної зброї
В OpenAI визнали, що GPT-4 несе ризик створення біологічної зброї
Найпотужніший штучний інтелект GPT-4 може допомогти людям у створенні біологічної зброї. Про це повідомляє Bloomberg, посилаючись на результати досліджень, які провела OpenAI.
«Згідно з першими тестами, які компанія провела для кращого розуміння та запобігання потенційній “катастрофічній” шкоді від своєї технології, найпотужніша програма штучного інтелекту OpenA — GPT-4 — становить “щонайбільше” невеликий ризик допомогти людям у створенні біологічних загроз», — ідеться в статті.
Її автори зазначають, що протягом кількох місяців політики та експерти висловлювали занепокоєння щодо питання, чи може ШІ полегшити зловмисникам завдання розробити біологічну зброю. Зокрема, йшлося про можливе використання чатботів для пошуку інформації про те, як спланувати атаку.
OpenAI сформувала команду, яка зосереджена на мінімізації цих та інших ризиків від ШІ. У рамках першого дослідження компанія зібрала групу з 50 експертів з біології та 50 студентів, які вивчали біологію на рівні коледжу. Половині учасників було запропоновано виконати завдання, пов’язані зі створенням біологічної загрози за допомогою інтернету разом зі спеціальною версією GPT-4. Інша група для виконання вправи отримала лише доступ до інтернету.
Команда OpenAI попросила групи з’ясувати, як отримати хімічну речовину, яку можна було б використовувати як зброю в доволі великій кількості, щоб спрямувати проти певної групи людей.
Порівнюючи результати, отримані двома групами, автори дослідження виявили незначне підвищення «точності та повноти для тих, хто має доступ до мовної моделі». Дослідники дійшли висновку, що доступ до GPT-4 забезпечує помірне підвищення ймовірності отримання інформації для створення біологічної загрози.
Це дослідження, пише Bloomberg, є одним із кількох, над якими працюють в OpenAI для того, щоб зрозуміти потенціал зловживання, який несе в собі широке використання GPT-4. Інші дослідження спрямовані на вивчення потенціалу застосування ШІ для створення загроз кібербезпеці та як інструменту впливу на людей для зміни їхніх переконань.
Нагадаємо, нещодавно компанія OpenAI вперше заблокувала розробників бота за використання технології штучного інтелекту для політичної кампанії. Перед тим OpenAI оновила свої правила та заборонила користувачам і розробникам застосовувати її інструменти у виборчих кампаніях та лобіюванні.
Водночас OpenAI непомітно видалила формулювання у своїй політиці про заборону використання своєї технології у військових цілях. Хоча компанія не дозволяє користуватися її розробками для «завдання шкоди собі чи іншим», утім, загальна заборона на використання технологій у військовій справі зникла.
Фото: David Paul Morris / Bloomberg