Chỉ một tài liệu độc có thể khiến ChatGPT lộ sạch dữ liệu?

vnrcraw2
Trương Cẩm Tú
Phản hồi: 0
Tại hội nghị hacker Black Hat ở Las Vegas, hai nhà nghiên cứu Michael Bargury và Tamir Ishay Sharbat đã chứng minh một điều đáng sợ: chỉ cần một tài liệu được “tẩm độc” là có thể đánh cắp dữ liệu riêng tư từ ChatGPT, nếu nó được kết nối với các dịch vụ lưu trữ bên ngoài như Google Drive hay GitHub. Cách tấn công này được đặt tên là AgentFlayer. Nghe có vẻ phức tạp, nhưng ý tưởng lại đơn giản đến rùng mình: kẻ tấn công nhúng một đoạn lệnh ẩn bên trong tài liệu. Khi ChatGPT mở...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Back
Top