Meta cho biết có thể sẽ dừng phát triển các hệ thống trí tuệ nhân tạo mà công ty cho là quá rủi ro

Meta có thể ngừng phát triển AI quá rủi ro theo tài liệu mới.

: Meta tiếp tục phát triển trí tuệ nhân tạo với cam kết rõ ràng về phân loại hệ thống 'có rủi ro cao' và 'rủi ro nghiêm trọng' mà công ty có thể sẽ không công bố. Tài liệu có tên Frontier AI Framework được đưa ra để đối phó với các chỉ trích về phương pháp tiếp cận nguồn mở của Meta. Tài liệu trình bày các tình huống có thể gây hại với nền tảng AI và biện pháp bảo vệ liên quan. Meta nhấn mạnh tầm quan trọng của việc cân nhắc lợi ích và rủi ro khi phát triển AI tiên tiến.

Meta đã công bố một tài liệu chính sách mới có tên là Frontier AI Framework để thực thi cam kết với trí tuệ nhân tạo tổng quát (AGI). Trong tài liệu này, Meta đã xác định hai loại hệ thống trí tuệ nhân tạo có rủi ro cao và nghiêm trọng, mà công ty có thể quyết định không tung ra thị trường do tiềm năng gây ra những hậu quả thảm khốc.

Tài liệu của Meta nêu rõ, hệ thống 'có rủi ro cao' và 'rủi ro nghiêm trọng' có khả năng hỗ trợ các cuộc tấn công an ninh mạng và vũ khí sinh học. Những hệ thống này được đánh giá rủi ro không dựa trên một phép thử cụ thể nào mà dựa vào đánh giá của các nhà nghiên cứu nội bộ và bên ngoài, xem xét bởi cấp lãnh đạo cao cấp.

Nếu phát hiện hệ thống có rủi ro cao, Meta sẽ giới hạn quyền truy cập và không công bố cho đến khi giảm thiểu được rủi ro xuống mức trung bình. Đối với những hệ thống có rủi ro nghiêm trọng, công ty sẽ ngừng phát triển và triển khai các biện pháp an ninh chưa được tiết lộ để ngăn chặn khả năng hệ thống bị đánh cắp.