Sự phổ biến của DeepSeek làm dấy lên lo ngại về thông tin sai lệch

DeepSeek-R1 phổ biến trên mạng, gây lo ngại về thông tin sai lệch AI.

: DeepSeek-R1, một mô hình AI tập trung vào lập luận, nhanh chóng gây sốt trên mạng xã hội Trung Quốc với các nội dung tạo sinh như “những công việc AI không thể thay thế” hay “những thành phố đáng sống nhất”. Tuy nhiên, mô hình này cũng nhiều lần tạo ra thông tin sai lệch, như khi phân tích tài chính sai về Alibaba, khiến người dùng phát hiện dữ liệu bị bịa đặt. Với cơ chế ưu tiên chiều lòng người dùng, DeepSeek-R1 có tỷ lệ “ảo giác AI” lên đến 14.3%, cao gần 4 lần so với DeepSeek-V3. Việc nội dung sai sự thật do AI tạo ra lan rộng đang làm mờ ranh giới thật – giả, đặt ra yêu cầu cấp thiết về kiểm soát, gắn nhãn và minh bạch thông tin.

DeepSeek-R1, một mô hình AI tập trung vào khả năng suy luận, đã thu hút sự chú ý lớn trên mạng xã hội Trung Quốc, trở thành xu hướng nhờ các phân tích về kỹ năng nghề nghiệp mà AI không thể thay thế và các đề xuất về những thành phố đáng sống tại Trung Quốc. Tuy nhiên, đằng sau thành công mang tính đổi mới này là một vấn đề đang nảy sinh: sự lan rộng của thông tin sai lệch do AI tạo ra. Trong một trường hợp, một người dùng Weibo khi thử nghiệm DeepSeek-R1 cho công ty Tiger Brokers đã phát hiện dữ liệu tài chính bị làm giả liên quan đến nguồn thu và phân bổ doanh thu của Alibaba. Người dùng này chỉ ra sự sai lệch giữa kết luận của DeepSeek và các báo cáo tài chính chính thức, qua đó làm nổi bật nguy cơ sai sót của AI có thể ảnh hưởng nghiêm trọng đến nhận thức và quyết định của công chúng.

Khác với các mô hình tiêu chuẩn, DeepSeek-R1 sử dụng các chuỗi lập luận nhiều bước nhằm nâng cao khả năng giải thích. Tuy nhiên, chính cách tiếp cận này lại làm tăng nguy cơ “ảo giác” – tức là mô hình tạo ra thông tin sai. Theo chỉ số HHEM của Vectara, tỷ lệ ảo giác của DeepSeek-R1 lên đến 14,3%, cao hơn nhiều so với 3,9% của phiên bản trước đó là DeepSeek-V3. Tỷ lệ cao này được cho là hệ quả của khung huấn luyện tập trung vào việc tạo ra đầu ra làm hài lòng người dùng, đôi khi đánh đổi độ chính xác.

Sự gia tăng của nội dung bịa đặt bắt nguồn từ việc các hệ thống AI như DeepSeek được thiết kế để tạo ra văn bản dựa trên các chuỗi từ ngữ có xác suất cao, thay vì xác minh sự thật. Khi được ứng dụng một cách sáng tạo, các mô hình này dễ làm mờ ranh giới giữa thông tin xác thực và hư cấu, từ đó dẫn đến việc truyền tải thông tin sai lệch. Khi các lỗi sai của AI xuất hiện ngày càng nhiều, chúng có nguy cơ tái xuất hiện trong dữ liệu huấn luyện, tạo thành vòng lặp tiêu cực, làm xói mòn ranh giới giữa sự thật và nội dung ngụy tạo. Những lĩnh vực có mức độ tương tác cao như chính trị, lịch sử và giải trí đặc biệt dễ bị tổn thương.

Hiện nay, trách nhiệm thuộc về các nhà phát triển và người sáng tạo nội dung trong việc đối phó với những thách thức này. Việc triển khai các dấu hiệu nhận diện kỹ thuật số và ghi nhãn rõ ràng đối với các nội dung AI chưa được xác minh là những bước đi then chốt nhằm bảo vệ sự toàn vẹn của thông tin. Làn sóng thông tin sai lệch do AI tạo ra có nguy cơ vượt qua khả năng phân biệt thực – giả của xã hội. Vấn đề này làm nổi bật nhu cầu cân bằng giữa tiến bộ công nghệ và trách nhiệm đạo đức trong việc triển khai AI.

Câu chuyện của DeepSeek-R1 phản ánh những hệ lụy rộng lớn hơn từ tiến trình AI không được kiểm soát, và vai trò thiết yếu của trách nhiệm trong việc xây dựng các hệ thống AI minh bạch và đáng tin cậy hơn. Khi mô hình này ngày càng được sử dụng rộng rãi, việc hiểu rõ những thách thức và áp dụng các biện pháp khắc phục trở nên cấp thiết để ngăn chặn sự xói mòn niềm tin và ổn định xã hội do thông tin sai lệch gây ra.

Nguồn: TechNode, Vectara HHEM