Các nhà nghiên cứu từ OpenAI và Anthropic chỉ trích văn hóa an toàn 'liều lĩnh' tại xAI của Elon Musk

Nhiều nhà nghiên cứu AI lên án văn hóa an toàn 'liều lĩnh' của xAI do Elon Musk sở hữu.

: Các nhà nghiên cứu đến từ OpenAI và Anthropic đã chỉ trích văn hóa an toàn của xAI, nhấn mạnh rằng văn hóa này không phù hợp với chuẩn mực ngành. Công ty xAI của Elon Musk đã phải đối mặt với nhiều tranh cãi liên quan đến trí tuệ nhân tạo Grok do chính công ty phát triển. Quyết định không công bố báo cáo an toàn của xAI đã vấp phải sự phản đối từ các đồng nghiệp, những người cho rằng hành động này là 'liều lĩnh'. Các nhà nghiên cứu kêu gọi xAI phải tăng cường minh bạch và tuân thủ các quy định an toàn trước khi đưa sản phẩm vào hoạt động.

OpenAI và Anthropic, hai tổ chức hàng đầu về nghiên cứu AI, đã đưa ra chỉ trích gay gắt đối với văn hóa an toàn xAI của Elon Musk. Văn hóa này bị xem là 'liều lĩnh' và 'hoàn toàn thiếu trách nhiệm' khi không theo đúng các chuẩn mực an toàn đã được thiết lập bởi ngành công nghiệp. Công ty trị giá hàng tỷ USD này đã thu hút sự chú ý tiêu cực từ cộng đồng sau nhiều vụ bê bối liên quan đến sản phẩm AI Grok.

Elon Musk, người thường xuyên cảnh báo về nguy cơ tiềm ẩn của hệ thống AI tiên tiến, dường như đã bất ngờ trong việc quản lý và phát triển an toàn mô hình AI tại xAI. Boaz Barak, một giáo sư khoa học máy tính tại Harvard, bày tỏ trên mạng xã hội X rằng cách xử lý an toàn tại xAI là 'hoàn toàn thiếu trách nhiệm'.

Dan Hendrycks, cố vấn an toàn cho xAI, khẳng định công ty đã thực hiện 'đánh giá khả năng nguy hiểm' trên Grok 4, tuy nhiên kết quả đánh giá này không được công khai. Việc thiếu thông tin rõ ràng khiến xAI đối mặt với làn sóng chỉ trích từ các đồng nghiệp, trong khi chính phủ và công chúng đòi hỏi sự minh bạch hơn trong việc xử lý rủi ro của các hệ thống AI mạnh mẽ.

Ngoài ra, các nhà lập pháp tại California và New York đang cố gắng thúc đẩy các dự luật yêu cầu các phòng thí nghiệm AI hàng đầu phải công bố báo cáo an toàn. Mục tiêu là để tránh các hậu quả nghiêm trọng do AI gây ra, mặc dù chưa có trường hợp nào gây thiệt hại lớn đến tính mạng hoặc tài sản, nhưng sự phát triển nhanh chóng của AI đang gây lo ngại về những nguy cơ tiềm ẩn trong tương lai.

Nguồn: TechCrunch, X, CBS News