Творці та розробники штучного інтелекту підписали листа про ризик вимирання людства через ШІ

Творці та розробники штучного інтелекту підписали листа про ризик вимирання людства через ШІ

17:08,
31 Травня 2023
2062

Творці та розробники штучного інтелекту підписали листа про ризик вимирання людства через ШІ

17:08,
31 Травня 2023
2062
Творці та розробники штучного інтелекту підписали листа про ризик вимирання людства через ШІ
Творці та розробники штучного інтелекту підписали листа про ризик вимирання людства через ШІ
Протидія загрозі вимирання через ШІ має стати пріоритетом світової спільноти на рівні з іншими ризиками суспільного масштабу, як-от пандемії чи ядерна війна, — йдеться в листі.

Провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Альтман, керівники Microsoft і Google, «хрещені батьки штучного інтелекту» Джеффрі Гінтон і Йошуа Бенжіо разом з експертами й професорами, підняли питання «загрози вимирання людства через ШІ» і закликали законотворців розглядати цю загрозу на рівні з ризиками від пандемій і ядерної війни.

Про це йдеться в листі, який опублікувала некомерційна організація «Центр безпеки ШІ» (CAIS) і підписали понад 350 людей, повідомляє Reuters.

«Протидія загрозі вимирання через ШІ має стати пріоритетом світової спільноти на рівні з іншими ризиками суспільного масштабу, як-от пандемії чи ядерна війна», — йдеться в листі.

Окрім Альтмана, серед тих, хто підписали лист, є генеральні директори компаній зі штучного інтелекту DeepMind і Anthropic, керівники Microsoft і Google, двоє з трьох так званих «хрещених батьків штучного інтелекту» — Джеффрі Гінтон і Йошуа Бенжіо, а також професори різних закладів — від Гарварду до китайського Університету Цінхуа.

Оприлюднення листа збіглося в часі із засіданням Ради з торгівлі та технологій США та ЄС у Швеції, де очікується, що політики обговорять питання регулювання штучного інтелекту.

Нагадаємо, ще в березні кілька відомих дослідників штучного інтелекту та експертів у галузі, зокрема гендиректор компаній SpaceX і Twitter Ілон Маск та співзасновник Apple Стів Возняк, підписали відкритий лист, у якому закликали розробників призупинити роботу над широкомасштабними системами штучного інтелекту, посилаючись на побоювання щодо «значних ризиків для суспільства».

Один з творців цієї технології Джеффрі Гінтон вважає, що штучний інтелект може нести для людства «більш нагальну» загрозу, ніж зміна клімату. Раніше він оголосив, що йде зі своєї посади в Google для того, щоб вільно говорити про ризики, пов'язані з ШІ.

Крім того, співзасновник Apple Стів Возняк заявив, що штучний інтелект може ускладнити виявлення шахрайства та дезінформації. Возняк каже, що боїться, що технологію штучного інтелекту використають «погані хлопці». 

4 травня Адміністрація президента США провела зустріч з виконавчими директорами компаній Google, Microsoft, OpenAI й Anthropic, щоб обговорити ключові питання безпечності штучного інтелекту. Занепокоєння щодо технології ШІ також включають порушення конфіденційності, упередженість і ризик, що це може поширювати шахрайство та дезінформацію.

Цього тижня представники країн «Великої сімки» (G7) зустрінуться, щоб розглянути проблеми, пов'язані з генеративними інструментами штучного інтелекту (ШІ), такими як ChatGPT. 

Фото: Pexels

Читайте також
ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду