Viện an ninh Vương quốc Anh phát hành công cụ để kiểm tra an toàn của mô hình AI
Viện An ninh UK phát hành công cụ Inspect mở để kiểm tra an toàn AI, hỗ trợ đánh giá mô hình AI.
Trong nỗ lực tăng cường an toàn cho công nghệ trí tuệ nhân tạo (AI), Viện An ninh Vương quốc Anh đã phát hành Inspect, một bộ công cụ dưới bản quyền mã nguồn mở nhắm vào việc định giá khả năng của mô hình AI. Công cụ này hướng đến việc đánh giá kiến thức cốt lõi và khả năng lý luận của mô hình AI, từ đó sinh ra điểm số dựa trên kết quả. Inspect bao gồm ba thành phần cơ bản là bộ dữ liệu, chương trình giải quyết và chương trình chấm điểm, cho phép nó được mở rộng qua các gói bổ sung bên thứ ba viết bằng Python.
Phát hành sau sự kiện mà Bộ Tiêu chuẩn và Công nghệ Quốc gia Mỹ (NIST) ra mắt chương trình NIST GenAI để đánh giá công nghệ AI sinh sản, Inspect của Vương quốc Anh đánh dấu một bước ngoặt trong việc thúc đẩy an toàn AI trên quy mô toàn cầu. Sự ra đời của Inspect cũng vào thời điểm Vương quốc Anh và Hoa Kỳ loan báo một sự hợp tác phát triển các bài kiểm tra mô hình AI tiên tiến, là bước đi quan trọng trong quan hệ đối tác chiến lược giữa hai quốc gia này trong lĩnh vực AI. Viện An ninh UK kỳ vọng Inspect sẽ không chỉ hỗ trợ việc kiểm tra an toàn mô hình của riêng mình mà còn tạo cơ sở để cải thiện và xây dựng dựa trên nền tảng mã nguồn mở này.
Cộng đồng toàn cầu đã phản ứng tích cực với sự ra mắt của Inspect. Deborah Raj, một nhà nghiên cứu về đạo đức AI tại Mozilla, đã ca ngợi Inspect như một minh chứng cho sức mạnh của đầu tư công vào công cụ mã nguồn mở về trách nhiệm giải trình AI. Clément Delangue, Giám đốc điều hành của startup AI Hugging Face, đã đề xuất ý tưởng tích hợp Inspect với thư viện mô hình của Hugging Face hoặc tạo bảng xếp hạng công khai từ kết quả đánh giá của công cụ.