Робоча група ЄС оприлюднила перший звіт щодо відповідності ChatGPT закону про захист даних
Робоча група ЄС оприлюднила перший звіт щодо відповідності ChatGPT закону про захист даних
Робоча група із захисту даних, утворена в Єврокомісії, понад рік вивчала відповідність вимогам європейського закону про захист персональних даних чатбота ChatGPT і 24 травня опублікувала звіт. Основний висновок полягає в тому, що фахівці досі не впевнені, що компанія-розробник OpenAI дотрималася вимог щодо законності та конфіденційності обробки даних, створюючи свій штучний інтелект, повідомило видання TechCrunch.
«Це важливо, оскільки штрафи за підтверджені порушення Загального регламенту захисту даних (GDPR) можуть сягати до 4% річного обороту компанії. І регулятор може наказати припинити невідповідну обробку даних. Таким чином — теоретично — OpenAI стикається зі значним регулятивним ризиком у регіоні в той час, коли спеціалізовані закони щодо штучного інтелекту є слабкими на місцях», — ідеться в публікації.
Також зазначено, що «без остаточної впевненої позиції регуляторів із захисту даних ЄС щодо того, як чинні закони застосовуються до ChatGPT, можна впевнено посперечатися, що OpenAI відчує себе вповноваженою продовжувати роботу як завжди — незважаючи на існування дедалі більшої кількості скарг на те, що її технологія порушує різні аспекти Загального регламенту захисту даних».
- Читайте також: OpenAI презентувала оновлений чатбот з ШІ, що реагує на емоції користувача та відповідає удвічі швидше за попередників
Видання нагадало про розслідування польського органу захисту даних, яке розпочалося восени 2023 року після скарги заявника на те, що чатбот спотворив інформацію про особу та відмовився виправляти помилки. Аналогічна скарга нещодавно надійшла й в Австрії.
Торік італійське Управління з питань захисту даних на час розслідування забороняла OpenAI обробляти дані місцевих користувачів ChatGPT. У підсумку в січні 2024 року регулятор ухвалив рішення, що чатбот ChatGPT порушує правила захисту даних Європейського Союзу.
Зазначено, що результати розслідування італійського регулятора виявили порушення конфіденційності даних, пов'язані з масовим збором персональних даних користувачів, які потім використовуються для навчання алгоритму. Також ідеться про занепокоєння, що чатбот може генерувати неприйнятний контент для дітей.
Фото: чатбот зі штучним інтелектом ChatGPT / Getty Images