ChatGPT bị khiếu nại về quyền riêng tư do các "ảo giác" bôi nhọ
ChatGPT bị kiện về quyền riêng tư do tạo thông tin sai lệch gây ảnh hưởng xấu.

OpenAI đang đối mặt với khiếu nại pháp lý về bảo vệ quyền riêng tư tại Châu Âu do ChatGPT có khuynh hướng tạo ra thông tin sai lệch, được gọi là 'ảo giác', vốn có thể gây tổn hại nghiêm trọng đến danh tiếng cá nhân. Nhóm bảo vệ quyền riêng tư Noyb đang hỗ trợ một cá nhân tại Na Uy sau khi ChatGPT đưa ra thông tin bịa đặt rằng ông này đã bị kết án vì tội giết hai con của mình. Điều này đã gây sốc cho cộng đồng địa phương và là một ví dụ điển hình cho thấy các công cụ AI như ChatGPT cần phải tuân thủ các quy định của GDPR.
Các khiếu nại về quyền riêng tư trước đây liên quan đến ChatGPT thường nói về thông tin cá nhân không chính xác như ngày sinh hoặc chi tiết tiểu sử. Dưới quy định của GDPR, công dân EU có quyền yêu cầu chỉnh sửa dữ liệu cá nhân khi nó không chính xác. Noyb chỉ ra rằng một phần của Đạo luật Bảo vệ Dữ liệu yêu cầu dữ liệu cá nhân phải chính xác, và đã chỉ trích OpenAI chỉ khuyến cáo người dùng rằng Chatbot có thể sai sót.
Luật GDPR cũng quy định rằng vi phạm có thể bị phạt tới 4% doanh thu hàng năm trên toàn cầu. OpenAI đã từng phải đối mặt với các biện pháp trừng phạt tương tự khi có hành vi không tuân thủ các quy định này tại Ý, bao gồm việc phải tạm dừng dịch vụ ChatGPT vào mùa xuân 2023 và bị phạt €15 triệu. Điều này đã thúc đẩy công ty phải điều chỉnh cách xử lý dữ liệu cá nhân của người dùng.
Kleanthi Sardeli, luật sư bảo vệ dữ liệu tại Noyb, cho biết rằng việc OpenAI cố gắng cố tình che giấu thông tin sai không tuân thủ Luật sẽ không khiến chúng trở nên hợp pháp. Noyb đã đệ đơn khiếu nại lên cơ quan bảo vệ dữ liệu Na Uy với hi vọng rằng cơ quan này sẽ chấp nhận thụ lý vụ việc, bởi Noyb nhắm vào thực thể Mỹ của OpenAI trong đơn khiếu nại này.
Vấn đề này nhấn mạnh tầm quan trọng của việc đảm bảo rằng các mô hình AI không chỉ chính xác mà còn phải minh bạch và có trách nhiệm với kết quả của mình. Khi OpenAI tiếp tục nâng cấp mô hình AI, việc giám sát các vấn đề tương tự sẽ giúp đảm bảo rằng những 'ảo giác' có hại như vậy không còn xảy ra, bảo vệ quyền lợi của mọi cá nhân trước những rủi ro tiềm tàng do công nghệ tiên tiến này mang lại.
Nguồn: TechCrunch, GDPR, Noyb