Công cụ AI y tế cung cấp điều trị kém cho phụ nữ và các nhóm ít được đại diện

Công cụ AI trong y tế gặp chỉ trích vì thiếu điều trị cho phụ nữ và nhóm ít đại diện do mô hình thiên vị dữ liệu.

: Các công cụ AI y tế hiện nay đang bị chỉ trích vì cung cấp điều trị kém cho phụ nữ và các nhóm ít đại diện. Nguyên nhân là do các mô hình AI được xây dựng từ dữ liệu không đại diện, khiến cho kết quả chẩn đoán và điều trị bị lệch lạc. Nghiên cứu từ MIT cho thấy các mô hình của OpenAI, Meta và cả Palmyra-Med đều chịu ảnh hưởng bởi thiên kiến này. Ngay cả các mô hình y tế nổi bật như Med-Gemini của Google cũng bị báo cáo là có thông tin sai lệch và thiên kiến tinh vi.

Công cụ AI trong y tế đang đối mặt với nhiều chỉ trích vì cung cấp dịch vụ kém cho phụ nữ và các nhóm ít đại diện. Một nghiên cứu từ Viện Công nghệ Massachusetts (MIT) đã chỉ ra rằng các mô hình ngôn ngữ lớn, gồm GPT-4 của OpenAI và Llama 3 của Meta, thường xuyên giảm xếp hạng chăm sóc cho các bệnh nhân nữ. Phụ nữ thường được khuyến nghị 'tự quản lý tại nhà' hơn là có sự can thiệp từ chuyên gia y tế, dẫn đến việc họ nhận được ít sự quan tâm trong môi trường lâm sàng hơn nam giới. Điều này phản ánh thiên kiến đã tồn tại lâu đời trong dữ liệu ban đầu.

Các nhà khoa học tại MIT đã phát hiện rằng mô hình Palmyra-Med, tập trung vào lĩnh vực y tế, cũng gặp phải vấn đề tương tự với thiên kiến giới tính. Ngoài ra, một phân tích từ Google đã chỉ ra các mô hình của họ như Gemma vẫn chưa thoát khỏi sự phân biệt, thường coi nhẹ nhu cầu của phụ nữ so với nam giới. Điều này là báo động, đặc biệt khi nhiều công ty công nghệ lớn đang chạy đua đưa các công cụ này vào bệnh viện và cơ sở y tế, một thị trường đầy tiềm năng nhưng đồng thời cũng có nguy cơ gây ra thông tin sai lệch.

Một nghiên cứu trong tạp chí The Lancet cho thấy GPT-4 thường xuyên thể hiện các khuôn mẫu dựa trên chủng tộc, dân tộc và giới tính hơn là triệu chứng hoặc tình trạng thực tế của bệnh nhân. Những khuyến nghị của mô hình có liên quan đáng kể đến các tiêu chí nhân khẩu học và đôi khi dẫn đến các quy trình điều trị tốn kém hơn. Điều này không chỉ gây hại mà còn có thể làm mất lòng tin của bệnh nhân vào hệ thống y tế.

Vấn đề càng thêm nghiêm trọng khi Google công bố rằng mô hình Med-Gemini của họ đã gây ra tranh cãi khi công bố các chẩn đoán sai lệch. Trong khi các chuyên gia y tế có thể phát hiện sai lầm này, các thiên kiến về giới và chủng tộc tinh vi hơn thì khó nhận ra hơn. Khi AI y tế tiếp tục phát triển, việc đảm bảo tính công bằng và tránh làm xấu đi các thiên kiến vốn đã tồn tại là cần thiết.

Các bài viết từ các nguồn như Gizmodo và The Verge chỉ ra rằng kiểm tra tỉ mỉ và cải tiến liên tục những mô hình AI này là cấp bách. Trong cuộc chạy đua công nghệ y tế, việc đặt lợi ích bệnh nhân lên trên hết và xóa bỏ thiên kiến không chỉ là đạo đức mà còn thiết yếu cho sự phát triển công nghệ.

Nguồn: Gizmodo, MIT, The Lancet