Білий дім обговорить з керівниками Google і Microsoft безпечність штучного інтелекту

Білий дім обговорить з керівниками Google і Microsoft безпечність штучного інтелекту

14:24,
4 Травня 2023
1392

Білий дім обговорить з керівниками Google і Microsoft безпечність штучного інтелекту

14:24,
4 Травня 2023
1392
Білий дім обговорить з керівниками Google і Microsoft безпечність штучного інтелекту
Білий дім обговорить з керівниками Google і Microsoft безпечність штучного інтелекту
Один з творців ШІ тим часом заявив, що йде з Google, щоб могти вільно говорити про небезпеку технології.

Адміністрація президента США проведе зустріч з виконавчими директорами компаній Google, Microsoft, OpenAI й Anthropic, щоб обговорити ключові питання безпечності штучного інтелекту. Про це повідомив представник Білого дому в коментарі Reuters.

Зустріч пройде 4 травня, і в ній візьмуть участь віцепрезидентка США Камала Гарріс та вищі посадовці адміністрації президента.

У запрошеннях для генеральних директорів, які побачили журналісти агентства, було зазначено, що президент Джо Байден «очікує, що такі компанії, як ваша, повинні переконатися, що їхні продукти безпечні, перш ніж робити їх доступними для громадськості».

У квітні цього року Байден сказав, що ще належить з’ясувати, чи безпечним є штучний інтелект. Він підкреслив, що технологічні компанії відповідають за забезпечення безпеки своїх продуктів. За його словами, соціальні медіа «вже продемонстрували шкоду, яку потужні технології можуть завдати без відповідних гарантій».

Депутати Ради внутрішньої політики Білого дому та Управління науково-технічної політики Білого дому 3 травня написали блог про те, як технологія може становити серйозний ризик для їхніх працівників.

Зокрема ChatGPT привернув увагу законодавців США, оскільки став найбільш зростаючою споживчою програмою в історії з більш як 100 мільйонами активних користувачів щомісяця.

Занепокоєння щодо технології штучного інтелекту включають порушення конфіденційності, упередженість і ризик, що це може поширювати шахрайство та дезінформацію.

Тим часом інженер Джеффрі Гінтон, якого називають «хрещеним батьком штучного інтелекту», повідомив у понеділок, що минулого тижня залишив свою посаду в Google, щоб мати змогу говорити про «небезпеку» технології, яку він розробляв, пише CNN.

Гінтон уточнив, що покинув Google саме для того, щоб вільно говорити про ризики ШІ, а не через бажання критикувати конкретно свою компанію. «Я пішов, щоб говорити про небезпеку ШІ, не замислюючись про те, як це вплине на Google. Google діяв дуже відповідально», — написав він.

Гінтон десять років працював у Google над розробкою штучного інтелекту, однак тепер він занепокоєний стосовно цієї технології та своєї ролі в її розвитку. «Я втішаю себе звичайним виправданням: якби я цього не зробив, зробив би хтось інший», — сказав Гінтон виданню New York Times, яке першим повідомило про його рішення.

Головний науковий співробітник Google Джефф Дін сказав, що Гінтон «здійснив основоположний прорив у ШІ». Він запевнив, що компанія відповідально підходить до штучного інтелекту і постійно враховує нові ризики, впроваджуючи інновації.

Нагадаємо, у березні кілька відомих дослідників штучного інтелекту та експертів у галузі, включаючи гендиректора компаній SpaceX і Twitter Ілона Маска та співзасновника Apple Стіва Возняка, підписали відкритий лист, у якому закликали розробників призупинити роботу над широкомасштабними системами штучного інтелекту, посилаючись на побоювання щодо «значних ризиків для суспільства».

За даними Всесвітнього економічного форуму, у найближчі роки світові ринки праці зіштовхнуться з масовими скороченнями, пов'язаними з тим, що штучний інтелект зможе повністю замінити певні спеціальності. Роботу можуть втратити до 26 мільйонів людей у світі.

Фото: Getty Images

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
Коментарі
оновити
Код:
Ім'я:
Текст:
2019 — 2024 Dev.
Andrey U. Chulkov
Develop
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду