Meta cho biết có thể sẽ dừng phát triển các hệ thống trí tuệ nhân tạo mà công ty cho là quá rủi ro
Meta có thể ngừng phát triển AI quá rủi ro theo tài liệu mới.

Meta đã công bố một tài liệu chính sách mới có tên là Frontier AI Framework để thực thi cam kết với trí tuệ nhân tạo tổng quát (AGI). Trong tài liệu này, Meta đã xác định hai loại hệ thống trí tuệ nhân tạo có rủi ro cao và nghiêm trọng, mà công ty có thể quyết định không tung ra thị trường do tiềm năng gây ra những hậu quả thảm khốc.
Tài liệu của Meta nêu rõ, hệ thống 'có rủi ro cao' và 'rủi ro nghiêm trọng' có khả năng hỗ trợ các cuộc tấn công an ninh mạng và vũ khí sinh học. Những hệ thống này được đánh giá rủi ro không dựa trên một phép thử cụ thể nào mà dựa vào đánh giá của các nhà nghiên cứu nội bộ và bên ngoài, xem xét bởi cấp lãnh đạo cao cấp.
Nếu phát hiện hệ thống có rủi ro cao, Meta sẽ giới hạn quyền truy cập và không công bố cho đến khi giảm thiểu được rủi ro xuống mức trung bình. Đối với những hệ thống có rủi ro nghiêm trọng, công ty sẽ ngừng phát triển và triển khai các biện pháp an ninh chưa được tiết lộ để ngăn chặn khả năng hệ thống bị đánh cắp.