OpenAI bị phạt vì ChatGPT vi phạm quy tắc bảo mật

Chủ Nhật, 22/12/2024, 16:49 [GMT+7]
In bài này
.

Cơ quan bảo vệ dữ liệu của Italy (Garante) tuyên bố đã phạt OpenAI, nhà sản xuất ra ứng dụng trí tuệ nhân tạo ChatGPT 15 triệu euro (15,58 triệu USD) sau khi kết thúc cuộc điều tra về việc sử dụng dữ liệu cá nhân của ChatGPT.

Khoản tiền phạt được đưa ra sau khi cơ quan này phát hiện OpenAI đã xử lý dữ liệu cá nhân của người dùng để "đào tạo ChatGPT mà không có cơ sở pháp lý đầy đủ và vi phạm nguyên tắc minh bạch và các nghĩa vụ thông tin liên quan đối với người dùng".

Garante cho biết, cuộc điều tra bắt đầu từ năm 2023 cũng kết luận rằng, công ty có trụ sở tại Mỹ này không có hệ thống xác minh độ tuổi phù hợp để ngăn trẻ em dưới 13 tuổi tiếp xúc với nội dung không phù hợp do AI tạo ra.

Cơ quan giám sát của Italy cũng đã ra lệnh cho OpenAI phát động một chiến dịch kéo dài 6 tháng trên các phương tiện truyền thông của nước này để nâng cao nhận thức của công chúng về cách thức hoạt động của ChatGPT, đặc biệt là về việc thu thập dữ liệu của người dùng và người không phải người dùng để đào tạo các thuật toán.

HẢI YẾN

;
.