Trong lĩnh vực tấn công AI còn non trẻ, "tiêm nhiễm prompt gián tiếp" (indirect prompt injection) đã trở thành một phương thức cơ bản để khiến chatbot tiết lộ dữ liệu nhạy cảm hoặc thực hiện các hành động độc hại khác. Các nhà phát triển nền tảng như Gemini của Google và ChatGPT của OpenAI thường làm tốt việc vá những lỗ hổng bảo mật này, nhưng tin tặc liên tục tìm ra những cách mới để khai thác chúng. Vào thứ Hai, nhà nghiên cứu Johann Rehberger đã trình diễn một cách mới để vượt qua các biện...