Творці та розробники штучного інтелекту підписали листа про ризик вимирання людства через ШІ
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Творці та розробники штучного інтелекту підписали листа про ризик вимирання людства через ШІ
Провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Альтман, керівники Microsoft і Google, «хрещені батьки штучного інтелекту» Джеффрі Гінтон і Йошуа Бенжіо разом з експертами й професорами, підняли питання «загрози вимирання людства через ШІ» і закликали законотворців розглядати цю загрозу на рівні з ризиками від пандемій і ядерної війни.
Про це йдеться в листі, який опублікувала некомерційна організація «Центр безпеки ШІ» (CAIS) і підписали понад 350 людей, повідомляє Reuters.
«Протидія загрозі вимирання через ШІ має стати пріоритетом світової спільноти на рівні з іншими ризиками суспільного масштабу, як-от пандемії чи ядерна війна», — йдеться в листі.
Окрім Альтмана, серед тих, хто підписали лист, є генеральні директори компаній зі штучного інтелекту DeepMind і Anthropic, керівники Microsoft і Google, двоє з трьох так званих «хрещених батьків штучного інтелекту» — Джеффрі Гінтон і Йошуа Бенжіо, а також професори різних закладів — від Гарварду до китайського Університету Цінхуа.
Оприлюднення листа збіглося в часі із засіданням Ради з торгівлі та технологій США та ЄС у Швеції, де очікується, що політики обговорять питання регулювання штучного інтелекту.
Нагадаємо, ще в березні кілька відомих дослідників штучного інтелекту та експертів у галузі, зокрема гендиректор компаній SpaceX і Twitter Ілон Маск та співзасновник Apple Стів Возняк, підписали відкритий лист, у якому закликали розробників призупинити роботу над широкомасштабними системами штучного інтелекту, посилаючись на побоювання щодо «значних ризиків для суспільства».
Один з творців цієї технології Джеффрі Гінтон вважає, що штучний інтелект може нести для людства «більш нагальну» загрозу, ніж зміна клімату. Раніше він оголосив, що йде зі своєї посади в Google для того, щоб вільно говорити про ризики, пов'язані з ШІ.
Крім того, співзасновник Apple Стів Возняк заявив, що штучний інтелект може ускладнити виявлення шахрайства та дезінформації. Возняк каже, що боїться, що технологію штучного інтелекту використають «погані хлопці».
4 травня Адміністрація президента США провела зустріч з виконавчими директорами компаній Google, Microsoft, OpenAI й Anthropic, щоб обговорити ключові питання безпечності штучного інтелекту. Занепокоєння щодо технології ШІ також включають порушення конфіденційності, упередженість і ризик, що це може поширювати шахрайство та дезінформацію.
Цього тижня представники країн «Великої сімки» (G7) зустрінуться, щоб розглянути проблеми, пов'язані з генеративними інструментами штучного інтелекту (ШІ), такими як ChatGPT.
Фото: Pexels