Công cụ chuyển đổi giọng nói thành văn bản của OpenAI được nhiều bác sĩ và bệnh viện sử dụng rộng rãi, nhưng làm dấy lên lo ngại về việc tạo ra thông tin sai lệch
Whisper của OpenAI bị chỉ trích vì 'ảo giác', tiềm ẩn rủi ro trong y tế.
Whisper, công cụ chuyển giọng nói thành văn bản của OpenAI, gặp chỉ trích vì có xu hướng tạo ra thông tin không xác thực, được gọi là 'ảo giác'. Dù có tuyên bố về độ chính xác, nhiều trường hợp nhấn mạnh Whisper tạo ra nội dung hoặc câu văn không hề tồn tại trong bản gốc.
Mặc dù vậy, công cụ đất dụng rộng rãi trong nhiều ngành, đặc biệt là y tế. Công ty Nabla đã phát triển công cụ dựa trên Whisper sử dụng bởi hơn 30,000 bác sĩ và 40 hệ thống y tế. Có cảnh báo rằng việc sử dụng này trong bối cảnh y tế cao có thể gây ra hậu quả nghiêm trọng.
Nghiên cứu chỉ ra mức độ ảo giác cao của Whisper, với tỷ lệ hơn 40% các ảo giác bị coi là gây lo ngại. Điều này bộc lộ rủi ro từ các ảo giác có thể gây ra, như thông tin sai về điều trị và các nội dung nhạy cảm khác. Các chuyên gia kêu gọi OpenAI xử lý ngay vấn đề này.