Bluesky vừa đề xuất một tiêu chuẩn mới trên GitHub cho phép người dùng kiểm soát việc trích xuất dữ liệu của họ cho AI tạo sinh, cầu nối giao thức, dữ liệu tập thể và lưu trữ web. CEO Jay Graber nhấn mạnh rằng dữ liệu công khai đã bị trích xuất từ nhiều nguồn trên web, và Bluesky đang cố gắng thiết lập một cơ chế tương tự robots.txt để quản lý việc này. Tuy nhiên, đề xuất không có tính ràng buộc pháp lý mà chỉ kỳ vọng các tổ chức AI tôn trọng tín hiệu từ người dùng. Molly White đánh giá đây là một bước tiến tốt nhưng cảnh báo rằng sự hiệu quả của nó phụ thuộc vào đạo đức của bên trích xuất dữ liệu.
Ashly Burch phản ứng trước đoạn video rò rỉ về AI Aloy của Sony, bày tỏ sự lo ngại về việc sử dụng AI không có sự bảo vệ cho nghệ sĩ. Cô không chỉ bày tỏ lo lắng cho mình mà còn vì tương lai của nghề diễn xuất trong ngành game. Burch nhấn mạnh sự cần thiết của việc có sự đồng thuận và bồi thường công bằng khi tạo ra AI từ dữ liệu của nghệ sĩ. Cô bày tỏ sự ủng hộ đối với cuộc đình công của SAG-AFTRA nhằm bảo vệ quyền lợi cho các nghệ sĩ.
Meta đang đối mặt với vụ kiện tại Pháp do Liên đoàn Xuất bản Quốc gia (SNE), Liên đoàn Tác giả và Nhà soạn nhạc (SNAC), cùng Hội Người Đọc (SGDL) cáo buộc công ty này sử dụng trái phép nội dung được bảo vệ để huấn luyện mô hình AI của mình. Các tổ chức này cho rằng Meta phạm phải hành vi "cướp bóc khổng lồ" và gọi cuộc chiến pháp lý này là trận đánh "David chống lại Goliath". Đây là lần đầu tiên một vụ kiện như vậy diễn ra ở Pháp, trong khi tại Mỹ, Meta cũng đối mặt với các kiện cáo tương tự liên quan đến việc sử dụng tài liệu được bảo vệ mà không có giấy phép. Hiện Meta chưa bình luận về vấn đề này.
Ben Lamm, CEO Colossal, cho rằng có nghĩa vụ đạo đức theo đuổi công nghệ tái sinh loài đã tuyệt chủng. Colossal nỗ lực phục hồi voi ma mút, chim dodo, và hổ Tasmania với kế hoạch giới thiệu lại voi ma mút vào năm 2028. Công ty nhận vốn hàng trăm triệu USD từ đầu tư mạo hiểm, hiện trị giá 10.2 tỷ USD. Lamm dự đoán công nghệ sinh học tổng hợp có thể tạo ra các bước đột phá y tế và bảo vệ môi trường.
Richard Sutton và Andrew Barto chỉ trích mạnh mẽ các công ty AI như OpenAI và Google khi triển khai phần mềm mà không có biện pháp an toàn. Họ nhận xét ChatGPT chỉ là công cụ kiếm tiền và không bao giờ đạt đến trí tuệ nhân tạo tổng quát (AGI). Sutton và Barto cho rằng đây là sai lầm cơ bản, khi phần mềm chưa qua kiểm định đầy đủ đã được đưa ra cho công chúng.
Cortical Labs, một phòng thí nghiệm tại Melbourne, đã ra mắt CL1, máy tính AI thương mại đầu tiên kết hợp tế bào não người thật và phần cứng silicon, tạo nên mạng lưới thần kinh sinh học có khả năng xử lý thông tin linh hoạt và tiết kiệm điện năng vượt trội. CL1 hoạt động như một dịch vụ điện toán sinh học trực tuyến (Wetware-as-a-Service), hỗ trợ các nhà nghiên cứu và doanh nghiệp công nghệ trong nghiên cứu y tế và các tác vụ điện toán tiêu thụ ít năng lượng. Dù có tiềm năng đạt trí thông minh tổng quát nhanh hơn AI truyền thống, cấu trúc tế bào 2D của CL1 vẫn bị cho là quá đơn giản so với não người thực sự. Ngoài ra, công nghệ này cũng đặt ra nhiều thách thức về đạo đức, nhất là nguy cơ tạo ra ý thức và cảm giác đau ở tế bào não được nuôi cấy.
OpenAI phát triển Voice Engine, công cụ sao chép giọng nói bằng AI, hơn một năm nhưng vẫn chưa phát hành rộng rãi do e ngại về an ninh và lạm dụng. Công ty thử nghiệm công nghệ này với các đối tác đáng tin cậy, áp dụng biện pháp an toàn như watermarking. Livox đã dùng thử nhưng chưa tích hợp được do cần kết nối mạng. Nguy cơ từ giọng nói AI khiến OpenAI cân nhắc kỹ lưỡng trước quyết định mở rộng.
Sesame AI, do Brendan Iribe cùng sáng lập, giới thiệu Miles và Maya với giọng AI rất giống con người, gây cả thích thú và lo lắng. Phản ứng của người dùng trước công nghệ này rất mạnh mẽ, đặc biệt khi một số cảm thấy như xây dựng quan hệ tình cảm với AI. Công nghệ này có thể bị lợi dụng trong các trò lừa đảo qua giọng nói, khi tội phạm giả danh người thân hay người có thẩm quyền. Tuy đã tạo ra bước tiến lớn, nhưng công nghệ này vẫn gặp khó khăn về ngữ cảnh và nhịp điệu hội thoại.
Google vẫn duy trì cách tiếp cận bảo thủ với chatbot Gemini khi xử lý các câu hỏi chính trị, mặc dù các đối thủ như OpenAI và Anthropic đã điều chỉnh chatbot của họ để thảo luận về chủ đề nhạy cảm này. Gemini từ chối trả lời các câu hỏi liên quan đến bầu cử và nhân vật chính trị, gây ra sự bất đồng về cách tiếp cận này. Google chưa công bố kế hoạch thay đổi cách xử lý chủ đề này, trong khi đối thủ đã cải thiện khả năng trả lời chính trị của AI. Áp lực từ các nhà cố vấn công nghệ đã khiến Google bị chỉ trích về việc hạn chế quyền tự do tư tưởng của AI.