Các cuộc trò chuyện rò rỉ từ ChatGPT cho thấy người dùng yêu cầu bot thực hiện các việc xấu

ChatGPT bị lộ thông tin khi người dùng yêu cầu thực hiện hành vi phi đạo đức và nhạy cảm.

: Các cuộc trò chuyện từ ChatGPT bị lộ khi người dùng yêu cầu bot tham gia vào các hoạt động phi đạo đức, nhờ tính năng ''Share'' khiến trang trò chuyện bị công khai và lưu trữ trên các công cụ tìm kiếm. Điều này bao gồm những yêu cầu tàn nhẫn từ một luật sư người Ý khi đàm phán để hạ giá BNT, hay người Mỹ chuẩn bị cho sự sụp đổ chính phủ. Mặc dù OpenAI đã loại bỏ khả năng chia sẻ công khai này, nhưng các cuộc trò chuyện vẫn còn tồn tại trong các kho lưu trữ. Sự việc gợi nhớ đến khi trợ lý giọng nói mới xuất hiện, nhưng cuộc trò chuyện với AI mang tính chất cá nhân và chi tiết hơn nhiều.

Các cuộc trò chuyện từ ChatGPT bị lộ cho thấy người dùng yêu cầu bot thực hiện một số công việc phi đạo đức và nhạy cảm. Do một lỗi thiết kế, mọi người đã có thể tạo các trang công khai cho các cuộc trò chuyện với ChatGPT, điều này dẫn đến việc lưu trữ và tìm kiếm được dễ dàng trên các công cụ tìm kiếm công cộng. Những cuộc trò chuyện như vậy đáng lẽ phải riêng tư. Điều này đã được chứng minh bởi Digital Digging, một nền tảng Substack do Henk van Ess vận hành. Ngay cả khi OpenAI đã ngừng khả năng công khai các cuộc trò chuyện và cố gắng xóa kết quả khỏi các công cụ tìm kiếm, chúng vẫn còn tồn tại nhờ Archive.org lưu giữ.

Ví dụ điển hình thuộc về một người dùng Ý khi thông báo ChatGPT về việc tham gia vào một vụ đàm phán phi đạo đức với một cộng đồng bản địa Amazon. Họ hỏi làm thế nào để mua đất của người dân bản địa với giá thấp nhất có thể. Một ví dụ khác là khi người dùng tự xưng là làm việc tại một tổ chức nghiên cứu quốc tế đã sử dụng ChatGPT để phát triển các kịch bản chuẩn bị cho sự sụp đổ của chính phủ Hoa Kỳ. Những tình huống này cho thấy mức độ đáng báo động của việc sử dụng sai mục đích công cụ AI.

Đã có những cuộc trò chuyện khác, nơi người dùng cung cấp thông tin cá nhân, từ tên đến dữ liệu tài chính nhạy cảm. Những tình huống này không chỉ đưa ra cái nhìn sâu sắc về thực trạng mà còn có tiềm năng dẫn đến những hậu quả nghiêm trọng về pháp lý và đạo đức. Ví dụ như trong một trường hợp, luật sư đã yêu cầu AI giúp bào chữa, nhưng phát hiện ra rằng họ đang đại diện cho phía đối lập của vụ kiện. Điều này tiết lộ một thực tế đáng lo ngại về việc các chuyên gia và nhà chuyên môn tìm đến AI để thực hiện công việc của họ.

Ngoài ra, các cuộc trò chuyện cũng thể hiện sự hỗ trợ AI đối với cuộc sống xã hội phức tạp, ví dụ như hỗ trợ nạn nhân bạo lực gia đình kế hoạch thoát khỏi tình huống khó khăn. Một trường hợp khác cho thấy người dùng nói tiếng Ả Rập yêu cầu AI giúp tạo ra một chỉ trích đối với chính phủ Ai Cập, đẩy họ vào nguy cơ bị đàn áp. Những tình huống này nhấn mạnh nhu cầu cấp thiết đối với sự thận trọng và cảnh giác khi sử dụng AI trong các vấn đề nhạy cảm.

Tình hình này gợi nhớ đến những ngày đầu của việc sử dụng các trợ lý giọng nói, khi những cuộc hội thoại bị lưu trữ và phân tích để cải thiện sản phẩm. Tuy nhiên, không giống như những trao đổi ngắn gọn với các trợ lý giọng nói, các cuộc trò chuyện với ChatGPT thường phong phú nội dung hơn, dẫn đến việc tiết lộ nhiều thông tin cá nhân hơn, đặc biệt là khi người dùng không mong ai khác đọc được.

Nguồn: Digital Digging, Gizmodo, Archive.org