Các chuyên gia cho biết báo cáo về mô hình AI mới nhất của Google thiếu chi tiết quan trọng về an toàn
Báo cáo của Google về AI của mình thiếu chi tiết an toàn quan trọng, gây lo ngại.

Google gần đây đã công bố báo cáo kỹ thuật về mô hình trí tuệ nhân tạo mới nhất của mình, Gemini 2.5 Pro. Tuy nhiên, báo cáo này đã bị chỉ trích vì thiếu chi tiết quan trọng liên quan đến an toàn. Các chuyên gia trong lĩnh vực AI, như Peter Wildeford và Thomas Woodside, bày tỏ sự lo ngại về việc thiếu minh bạch và chi tiết, đặc biệt là việc không đề cập đến các phát hiện từ Khung An toàn Tiên phong (Frontier Safety Framework) của Google .
Peter Wildeford, đồng sáng lập Viện Chính sách và Chiến lược AI, cho rằng báo cáo này quá sơ sài và được công bố sau khi mô hình đã được phát hành, khiến việc xác minh các cam kết an toàn của Google trở nên khó khăn . Thomas Woodside, đồng sáng lập Dự án AI An toàn, cũng bày tỏ sự thất vọng về việc Google không công bố kịp thời các đánh giá an toàn bổ sung, đặc biệt là khi mô hình Gemini 2.5 Flash mới được công bố cũng chưa có báo cáo an toàn đi kèm.
Kevin Bankston, cố vấn cao cấp về quản trị AI tại Trung tâm Dân chủ và Công nghệ, nhận định rằng xu hướng thiếu minh bạch trong ngành AI đang trở nên phổ biến, với việc các công ty như Google, Meta và OpenAI đều bị chỉ trích vì không cung cấp đầy đủ thông tin về an toàn trong các báo cáo của mình . Ông gọi đây là một “cuộc đua xuống đáy” về an toàn và minh bạch trong ngành công nghiệp AI.
Google đã giới thiệu Khung An toàn Tiên phong vào năm 2024 như một nỗ lực để xác định các khả năng AI trong tương lai có thể gây hại nghiêm trọng và thiết lập các cơ chế để phát hiện và giảm thiểu chúng . Tuy nhiên, việc không đề cập đến các phát hiện từ khung này trong báo cáo kỹ thuật của Gemini 2.5 Pro đã làm dấy lên nghi ngờ về cam kết của Google đối với an toàn AI.
Mặc dù Google khẳng định rằng họ đã tiến hành các thử nghiệm an toàn và đánh giá nội bộ trước khi phát hành mô hình, việc thiếu thông tin chi tiết trong báo cáo kỹ thuật khiến cộng đồng nghiên cứu và các nhà hoạch định chính sách khó có thể đánh giá đầy đủ về mức độ an toàn của mô hình này . Điều này đặt ra câu hỏi về trách nhiệm và minh bạch của các công ty công nghệ trong việc phát triển và triển khai các mô hình AI tiên tiến.
Nguồn: TechCrunch, Google Deepmind