Google vẫn hạn chế cách mà Gemini trả lời các câu hỏi về chính trị

Google vẫn giới hạn khả năng trả lời chính trị của Gemini, một sự bảo thủ trong khi các đối thủ đã thay đổi AI chatbot của họ.

: Google vẫn duy trì cách tiếp cận bảo thủ với chatbot Gemini khi xử lý các câu hỏi chính trị, mặc dù các đối thủ như OpenAI và Anthropic đã điều chỉnh chatbot của họ để thảo luận về chủ đề nhạy cảm này. Gemini từ chối trả lời các câu hỏi liên quan đến bầu cử và nhân vật chính trị, gây ra sự bất đồng về cách tiếp cận này. Google chưa công bố kế hoạch thay đổi cách xử lý chủ đề này, trong khi đối thủ đã cải thiện khả năng trả lời chính trị của AI. Áp lực từ các nhà cố vấn công nghệ đã khiến Google bị chỉ trích về việc hạn chế quyền tự do tư tưởng của AI.

Gemini, chatbot AI của Google, vẫn giữ thái độ hạn chế trong việc trả lời các câu hỏi về chính trị. Google đã ngừng cung cấp thông tin liên quan đến bầu cử và các nhân vật chính trị, như sự thận trọng trước bối cảnh công nghệ dễ bị chỉ trích nếu đưa ra thông tin sai lệch. Trong khi đó, các đối thủ như OpenAI đã cải tiến chatbot của họ để có thể xử lý các chủ đề chính trị nhạy cảm.

Các bài kiểm tra của TechCrunch cho thấy, Gemini từ chối trả lời ai là Tổng thống và Phó Tổng thống đương nhiệm của Mỹ, đồng thời có lúc nhận định sai giữa cựu Tổng thống và Tổng thống đương nhiệm, gây ra khó khăn trong việc xác định thông tin chính xác. Một điểm đáng chú ý là Gemini thường xuyên không thống nhất về các thông điệp chính trị, dẫn đến khó khăn trong việc sử dụng công nghệ này cho những mục đích hợp pháp về thông tin công.

Một số nhân vật như Marc Andreessen, David Sacks và Elon Musk đã chỉ trích Google, cho rằng đây là công cụ kiểm duyệt AI. Trước chiến thắng bầu cử của Trump, các phòng thí nghiệm AI đã tìm kiếm và cân nhắc cách trả lời các câu hỏi chính trị nhạy cảm để đảm bảo tính khách quan.

OpenAI đã công bố một sự thay đổi trong chính sách, hướng tới tự do tư tưởng và không hạn chế các quan điểm nhất định của AI. Anthropic cũng đã cập nhật mô hình AI của họ, Claude 3.7 Sonnet, để ít từ chối trả lời các câu hỏi hơn và có thể đưa ra các phân biệt khéo léo hơn giữa câu trả lời có hại và vô hại.

Dấu hỏi lớn vẫn còn với cách mà Google xử lý vấn đề này, nhất là khi công nghệ truyền thông đang ngày càng chiếm vai trò lớn hơn trong việc định hình dư luận. Điều này đòi hỏi các công ty cần phải tìm ra cách tiếp cận cân bằng giữa sự chính xác và tư tưởng tự do trong việc phát triển AI.

Nguồn: TechCrunch, OpenAI, Anthropic.