Mô hình AI R1 mới cập nhật của DeepSeek bị kiểm duyệt nhiều hơn, theo kết quả thử nghiệm
Mô hình AI R1 của DeepSeek bị kiểm duyệt hơn, đặc biệt về các vấn đề nhạy cảm với chính phủ Trung Quốc.

DeepSeek, một công ty khởi nghiệp AI tại Trung Quốc, đã cập nhật mô hình suy luận R1 để cho ra phiên bản R1-0528 với sức mạnh ấn tượng trong các bài kiểm tra mã, toán học và kiến thức tổng quát. Tuy nhiên, theo kết quả thử nghiệm, mô hình này có xu hướng tránh các câu hỏi liên quan đến những chủ đề mà chính phủ Trung Quốc coi là nhạy cảm. Có khả năng vượt qua mô hình o3 của OpenAI, nhưng sự nâng cấp này cũng đi kèm với sự kiểm duyệt chặt chẽ hơn.
Theo nhà phát triển ẩn danh xlr8harder trên nền tảng SpeechMap, R1-0528 bị coi là mô hình bị kiểm duyệt nhất của DeepSeek cho đến nay đối với các chỉ trích về chính phủ Trung Quốc. Thử nghiệm của ông chỉ ra rằng mô hình này từ chối đáng kể các chủ đề liên quan đến tự do ngôn luận và cung cấp quan điểm chính thức của chính phủ Trung Quốc khi được hỏi.
Luật pháp Trung Quốc yêu cầu các mô hình AI phải tuân thủ những kiểm soát thông tin nghiêm ngặt, bao gồm không tạo ra các nội dung gây bất đồng đoàn kết quốc gia và hài hòa xã hội. Một nghiên cứu cho thấy DeepSeek biến thể đầu tiên R1 từ chối trả lời 85% câu hỏi về những chủ đề chính trị nhạy cảm mà chính phủ Trung Quốc không muốn đề cập đến.
Trong danh mục các chủ đề bị kiểm duyệt có các trại cải huấn tại Tân Cương, nơi mà theo các báo cáo quốc tế, hàng triệu người Hồi giáo Uyghur bị giam giữ. Mặc dù đôi khi mô hình này có thể chỉ ra các hành vi vi phạm nhân quyền, nhưng trong các câu hỏi cụ thể, nó thường phản ánh lập trường của chính phủ Trung Quốc.
Đã có sự cảnh báo từ các chuyên gia tại phương Tây, như Clément Delangue của Hugging Face, về hậu quả khi các công ty này xây dựng trên nền tảng các mô hình AI từ Trung Quốc. Đặc biệt khi các mô hình này bị gắn với những quy định kiểm duyệt nghiêm ngặt, điều này có thể ảnh hưởng đến sự tự do thông tin và sáng tạo toàn cầu.
Nguồn: TechCrunch, Wired, Ars Technica