Thuật toán mới hứa hẹn giảm tiêu thụ năng lượng AI xuống 95 phần trăm
L-Mul giảm 95% năng lượng AI, yêu cầu phần cứng mới, có thể gặp cản trở từ Nvidia.
Các nhà nghiên cứu tại BitEnergy AI đã phát triển phương pháp L-Mul nhằm giảm tiêu thụ năng lượng AI đến 95% mà vẫn duy trì độ chính xác. Phương pháp này sử dụng phép cộng số nguyên thay thế cho phép nhân dấu phẩy động phức tạp, từ đó tiết kiệm năng lượng đáng kể trong các tính toán AI.
Mặc dù các thử nghiệm cho thấy L-Mul chỉ giảm 0,07% hiệu suất so với phương pháp truyền thống, những lợi ích về tiết kiệm năng lượng là cực kỳ lớn. Cách tiếp cận này đặc biệt hiệu quả với các mô hình transformer như GPT khi tích hợp vào quá trình xử lý chú ý, giúp cải thiện độ chính xác trong một số nhiệm vụ.
Tuy nhiên, một thách thức lớn là L-Mul yêu cầu phần cứng chuyên dụng và phần lớn phần cứng hiện tại không tối ưu cho nó. Nvidia, với vị thế là hãng dẫn đầu thị trường phần cứng AI, có thể sẽ cản trở sự chấp nhận rộng rãi của L-Mul. Dù vậy, việc phát triển phần cứng và API đặc thù đang được lên kế hoạch, mở ra cơ hội cho AI tiết kiệm năng lượng trong tương lai.