OpenAI lập một đội ngũ để kiểm soát AI 'siêu thông minh' — nhưng sau đó 'bỏ con giữa chợ'

OpenAI giải tán đội ngũ Superalignment do lãnh đạo bất đồng và thiếu nguồn lực, có thể ảnh hưởng đến an toàn AI.

: Nhóm Superalignment của OpenAI bị ảnh hưởng do thiếu tài nguyên và bất đồng ưu tiên với lãnh đạo. Nhiều thành viên chủ chốt, bao gồm Jan Leike, đã từ chức. Nhóm này sẽ được tích hợp vào các bộ phận khác, gây lo ngại về an toàn AI.

Nhóm Superalignment của OpenAI, được lập ra để phát triển các cách thức quản lý và điều hướng hệ thống AI 'siêu thông minh', đã gặp phải nhiều khó khăn khi yêu cầu sử dụng tài nguyên tính toán của mình bị từ chối. Điều này, cùng với các vấn đề khác, đã khiến nhiều thành viên trong nhóm từ chức, bao gồm cả đồng lãnh đạo Jan Leike và nhà đồng sáng lập Ilya Sutskever. Jan Leike công bố lý do từ chức do không đồng tình với ưu tiên cốt lõi của công ty trong một thời gian dài và lo ngại rằng OpenAI không dành đủ tài nguyên cho các vấn đề về an toàn, theo dõi, và tác động xã hội của AI.

Nhóm này được thành lập vào tháng 7 năm trước với mục tiêu giải quyết các thách thức kỹ thuật cơ bản trong việc kiểm soát AI siêu thông minh trong vòng bốn năm. Đội ngũ này do Leike và Sutskever dẫn dắt, bao gồm các nhà khoa học và kỹ sư từ OpenAI cũng như các nhà nghiên cứu từ các tổ chức khác. Dù đã xuất bản nhiều nghiên cứu về an toàn và phân phát triệu đô la cho các nhà nghiên cứu bên ngoài, nhóm vẫn phải đấu tranh để có được các khoản đầu tư cần thiết cho sứ mệnh phát triển AI siêu thông minh vì lợi ích của toàn nhân loại.

Sau khi Leike và Sutskever từ chức, đồng sáng lập John Schulman sẽ đảm nhiệm công việc của họ. Tuy nhiên, không còn một nhóm chuyên biệt nữa, mà sẽ là một nhóm các nhà nghiên cứu được tích hợp vào các bộ phận khác của công ty. Điều này gây lo ngại rằng việc phát triển AI của OpenAI sẽ không còn tập trung vào an toàn như trước đây.