Итальянский регулятор заявил о нарушении ChatGPT правил защиты данных
Итальянское Управление по вопросам защиты данных (GPDP) постановило, что чатбот ChatGPT, который действует на основе искусственного интеллекта, нарушает правила защиты данных Европейского Союза.
Об этом пишет "Европейская правда".
В сообщении GPDP от 29 января говорится, что результаты расследования итальянского регулятора выявили нарушения конфиденциальности данных, связанные со сбором персональных данных и возрастной защитой.
Расследование велось в рамках рабочей группы, которую Управление по защите данных Италии создало с Европейским советом по защите данных – независимым органом ЕС, который решает вопросы применения Регламента об общей защите данных.
Нарушения со стороны ChatGPT связаны с массовым сбором данных пользователей, которые затем используются для обучения алгоритма. Также говорится об обеспокоенности, что чат-бот может генерировать неприемлемый контент для детей.
Теперь у разработчика ChatGPT – компании OpenAI – есть 30 дней для ответа на претензии итальянского регулятора.
В комментарии BBC OpenAI отрицает, что чат-бот не соответствует регламенту ЕС о конфиденциальности.
"Мы активно работаем над уменьшением персональных данных при обучении наших систем, таких как ChatGPT, который также отклоняет запросы на получение частной или конфиденциальной информации о людях", – говорится в ответе компании.
Италия в марте 2023 года стала первой западной страной, которая заблокировала ChatGPT, ссылаясь на беспокойство о конфиденциальности. Примерно через четыре недели – когда первые претензии были решены – работу ChatGPT возобновили.
В соответствии с Регламентом ЕС об общей защите данных, компании-нарушительницы могут быть оштрафованы на сумму до 4% от своего глобального оборота.