Ngày 29/1, Garante - Cơ quan bảo vệ dữ liệu của Italia, thông báo với OpenAI rằng ứng dụng Trí tuệ nhân tạo ChatGPT của công ty này đã vi phạm các quy tắc bảo vệ dữ liệu.
Thông báo này được đưa ra khi Garante thúc đẩy một cuộc điều tra bắt đầu vào năm ngoái.
Garante là một trong những cơ quan chủ động nhất của Liên minh châu Âu (EU) trong việc đánh giá sự tuân thủ của ChatGPT với chế độ bảo mật dữ liệu của EU. Năm ngoái, Garante đã cấm ChatGPT vì bị cáo buộc vi phạm các quy định về quyền riêng tư của EU.
Dịch vụ này sau đó đã được kích hoạt lại sau khi OpenAI giải quyết các vấn đề liên quan quyền của người dùng từ chối đồng ý sử dụng dữ liệu cá nhân để đào tạo các thuật toán của mình. Vào thời điểm đó, cơ quan quản lý này tuyên bố sẽ tiếp tục tiến trình điều tra.
Garante nhấn mạnh, OpenAI - Công ty có vốn đầu tư của Tập đoàn Microsoft, có 30 ngày để bào chữa.
Hiện OpenAI chưa đưa ra thông tin phản hồi khi được yêu cầu bình luận.
Theo Quy định bảo vệ dữ liệu chung của EU được ban hành vào năm 2018, bất kỳ công ty nào bị phát hiện vi phạm các quy tắc đều phải đối mặt với mức phạt lên tới 4% doanh thu toàn cầu.
Tháng 12/2023, EU đã đồng ý các điều khoản tạm thời để quản lý các hệ thống AI như ChatGPT, tiến một bước gần hơn đến việc thiết lập các quy tắc quản lý công nghệ này.