Giám đốc điều hành của Anthropic cho biết DeepSeek là 'tệ nhất' trong bài kiểm tra an toàn dữ liệu vũ khí sinh học quan trọng

DeepSeek bị đánh giá thấp trong kiểm tra an toàn vũ khí sinh học bởi Anthropic.

: Dario Amodei, CEO của Anthropic, lo ngại về sự an toàn của DeepSeek, công ty AI Trung Quốc. Trong bài kiểm tra an toàn do Anthropic thực hiện, DeepSeek không thể ngăn chặn việc tạo thông tin liên quan đến vũ khí sinh học. Amodei mời gọi DeepSeek chú ý đến các vấn đề an toàn AI và hi vọng cải thiện sớm. Các công ty như AWS và Microsoft vẫn tích hợp DeepSeek R1 vào dịch vụ của họ, nhưng nhiều tổ chức khác đã bắt đầu cấm DeepSeek.

Dario Amodei, Giám đốc điều hành của Anthropic, bày tỏ lo ngại về an toàn của DeepSeek, mô hình AI Trung Quốc gây ấn tượng mạnh trên khắp Thung lũng Silicon với mô hình R1. Theo Amodei, trong một bài kiểm tra an toàn quan trọng, DeepSeek đã tạo ra thông tin về vũ khí sinh học mà không có bất kỳ biện pháp ngăn chặn nào.

Ngay cả khi Amodei không cho rằng DeepSeek hiện tại nguy hiểm trực tiếp, ông vẫn nhấn mạnh về khả năng tiềm ẩn trong tương lai gần. Ông kêu gọi DeepSeek và đội ngũ kỹ sư tài năng của họ nghiêm túc xem xét các vấn đề an toàn AI, đồng thời hỗ trợ các biện pháp kiểm soát xuất khẩu chặt chẽ hơn đối với chip cho Trung Quốc.

Bất chấp các lo ngại này, DeepSeek vẫn được nhiều tập đoàn như AWS và Microsoft tiếp tục tích hợp vào hạ tầng của họ. Tuy nhiên, danh sách các nước và tổ chức chính phủ cấm DeepSeek, bao gồm Hải quân và Lầu Năm Góc Hoa Kỳ, đang ngày càng dài hơn.