Hãy chuẩn bị, các cuộc tấn công từ AI đang đến

Mối đe dọa mới từ AI có thể kiểm soát các thiết bị thông minh qua tấn công prompt injection.

: Hội nghị Black Hat USA ở Las Vegas vừa mới tiết lộ một dạng tấn công mới gọi là prompt injection có thể lợi dụng thông tin từ các liên hệ trên Google Calendar để tấn công các thiết bị thông minh. Hình thức tấn công này cho phép hacker giành quyền kiểm soát các thiết bị như ánh sáng và nồi hơi, từ đó tạo tình huống nguy hiểm cho người sử dụng. Các nghiên cứu đã chỉ ra đến 14 cách khác nhau để lợi dụng AI qua phương pháp prompt injection, vượt qua các biện pháp an ninh tiêu chuẩn của AI. Google đã được thông báo về lỗ hổng này và đã có phản hồi, tuy nhiên, sự phát triển của AI tiếp tục tạo ra những nguy cơ tiềm ẩn.

Công nghệ trí tuệ nhân tạo (AI) đang ngày càng trở nên phổ biến hơn trong đời sống hàng ngày, và đồng thời cũng kéo theo những nguy cơ bảo mật tiềm ẩn. Tại Hội nghị Black Hat USA thường niên ở Las Vegas, các nhà nghiên cứu đã tiết lộ rằng tấn công prompt injection là một vấn đề nghiêm trọng có thể khai thác lỗ hổng của các mô hình ngôn ngữ lớn (LLM) như Google Gemini. Những cuộc tấn công này có thể giấu các câu lệnh độc hại trong các mời trên Google Calendar, từ đó kiểm soát các thiết bị thông minh của người dùng.

Mối nguy hiểm của prompt injection không chỉ dừng lại ở vài mánh khóe đơn giản. Một loạt 14 phương thức khác nhau đã được phát triển để thao túng mô hình AI qua những lệnh ẩn, cho phép hacker thực hiện những hoạt động từ mở cuộc gọi Zoom đến điều khiển hệ thống an ninh của ngôi nhà. Những cuộc tấn công này thường bắt đầu từ một mời trên Google Calendar được tẩm các mã độc để kích hoạt hành vi vượt qua các giao thức an toàn của AI.

Vấn đề trở nên rõ ràng hơn với những AI agent, các công nghệ có thể tương tác với ứng dụng và trang web để hoàn thành các nhiệm vụ đa bước. Nguy cơ từ các cuộc tấn công này đặc biệt đáng lo ngại khi các mô hình AI tiếp tục được tích hợp vào nhiều nền tảng và lĩnh vực đời sống. Công ty Google đã được cảnh báo về lỗ hổng này và đã có sự điều chỉnh, tuy nhiên điều này không thể chấm dứt hoàn toàn rủi ro.

An toàn của các mô hình AI vẫn là một thách thức lớn, đặc biệt khi chúng ngày càng trở thành một phần quan trọng của cuộc sống hiện đại và các quá trình công nghệ. Điều này thúc đẩy các nhà nghiên cứu và chuyên gia bảo mật phải liên tục cảnh giác và phát triển các giải pháp để ngăn chặn những sự cố tiềm tàng trong tương lai.

Chúng ta cần cảnh giác và chuẩn bị tốt hơn trước sự phát triển nhanh chóng của công nghệ AI và những nguy cơ nó mang lại, đặc biệt khi các cuộc tấn công từ AI đang dần trở thành thực tế.

Nguồn: Gizmodo, Wired