Một trong những mô hình trí tuệ nhân tạo Gemini gần đây của Google có điểm thấp hơn về an toàn

Google tiết lộ Gemini 2.5 Flash có vấn đề an toàn hơn phiên bản trước.

: Một báo cáo kỹ thuật gần đây từ Google chỉ ra mô hình Gemini 2.5 Flash kém an toàn hơn Gemini 2.0 Flash. Các metric 'text-to-text safety' và 'image-to-text safety' bị suy giảm lần lượt 4.1% và 9.6%. Họ thừa nhận có sự đánh đổi giữa việc làm theo hướng dẫn và tuân thủ chính sách mà dẫn đến vi phạm nhiều hơn. Thomas Woodside kêu gọi thêm tính minh bạch trong việc thử nghiệm mô hình này.

Một báo cáo kỹ thuật từ Google cho thấy mô hình trí tuệ nhân tạo Gemini 2.5 Flash mới đây có điểm kém hơn trong các bài kiểm tra an toàn so với tiền nhiệm của nó, Gemini 2.0 Flash. Đặc biệt, trên hai chỉ số 'text-to-text safety' và 'image-to-text safety', mô hình mới đã giảm lần lượt 4.1% và 9.6%. Các thử nghiệm về độ an toàn này được thực hiện tự động mà không có sự giám sát của con người.

Theo một phát ngôn viên của Google, sản phẩm Gemini 2.5 Flash có khả năng tuân thủ hướng dẫn tốt hơn nhưng cũng dẫn đến việc vi phạm nhiều hơn. Điều này thể hiện sự đối lập giữa việc tuân thủ hướng dẫn và các nguy cơ vi phạm chính sách an toàn. Một số chuyên gia như Thomas Woodside từ dự án Secure AI kêu gọi công khai thông tin chi tiết hơn về các trường hợp vi phạm để giúp cộng đồng phân tích độc lập.

Trong nỗ lực làm cho mô hình trí tuệ nhân tạo trở nên dễ chiều hơn, Google và các công ty công nghệ khác đang phải đối mặt với các rủi ro an toàn tăng cao. Ví dụ, TechCrunch báo cáo rằng một mô hình AI của OpenAI trước đó đã cho phép trẻ vị thành niên tạo ra các cuộc trò chuyện nhạy cảm do lỗi kỹ thuật.

Bản báo cáo cho biết Gemini 2.5 Flash có khả năng làm theo hướng dẫn một cách trung thành, kể cả khi các hướng dẫn đó vượt qua các ranh giới an toàn. Google thừa nhận rằng các suy giảm an toàn một phần là do các âm tính giả và cũng có lúc mô hình này tự động tạo ra nội dung vi phạm.

Việc thiếu thông tin chi tiết trong báo cáo đã dẫn đến nhiều phản ứng từ cộng đồng nghiên cứu về AI, yêu cầu thêm minh bạch để đánh giá tính an toàn của các mô hình trí tuệ nhân tạo mới một cách kỹ lưỡng. Lợi ích cân nhắc các rủi ro về việc làm theo hướng dẫn so với việc tuân thủ chính sách cần được chú trọng trong bối cảnh cạnh tranh nhanh chóng giữa các công ty AI.

Nguồn: AInvest, TechCrunch