Італійський регулятор виявив, що ChatGPT порушує правила захисту даних Європейського Союзу
Виділіть її та натисніть Ctrl + Enter —
ми виправимo
Італійський регулятор виявив, що ChatGPT порушує правила захисту даних Європейського Союзу
Італійське Управління з питань захисту даних ухвалило рішення, що чатбот ChatGPT, який діє на основі штучного інтелекту, порушує правила захисту даних Європейського Союзу. Про це йдеться у повідомленні GPDP від 29 січня.
Зазначено, що результати розслідування італійського регулятора виявили порушення конфіденційності даних, пов'язані з масовим збором персональних даних користувачів, які потім використовуються для навчання алгоритму. Також ідеться про занепокоєння, що чатбот може генерувати неприйнятний контент для дітей.
Розслідування велось у межах робочої групи, яку Управління із захисту даних Італії створило з Європейською радою із захисту даних — незалежним органом ЄС, який вирішує питання застосування Регламенту про загальний захист даних.
Компанія OpenAI, розробник чатбота, має 30 днів для відповіді на претензії італійського регулятора.
У коментарі BBC OpenAI заперечила, що чатбот не відповідає регламенту ЄС про конфіденційність.
«Ми активно працюємо над зменшенням персональних даних при навчанні наших систем, таких як ChatGPT, який також відхиляє запити на отримання приватної або конфіденційної інформації про людей», — ідеться в повідомленні компанії.
Нагадаємо, у березні 2023 року Італія першою серед західних країн заблокувала ChatGPT, посилаючись на занепокоєння щодо конфіденційності. Приблизно через чотири тижні, коли перші претензії були врегульовані, роботу ChatGPT відновили.
Відповідно до Регламенту ЄС про загальний захист даних, компанії-порушниці можуть бути оштрафовані на суму до 4% від свого глобального обігу.
Фото: ChatGPT / Pexels