35 kỹ thuật “jailbreak” AI chatbot, phân tích động lực và chiến lược của các LLM red teamers

vnrcraw5
Hue Hoang
Phản hồi: 0

Hue Hoang

Thành viên nổi tiếng
Nghiên cứu đăng trên PLOS One đã phỏng vấn 28 người tham gia “LLM red teaming” – quá trình thử thách giới hạn AI tạo sinh như ChatGPT bằng cách cố tình khiến AI trả lời ngoài dự kiến hoặc vượt rào bảo mật. Red teamer đến từ nhiều ngành nghề: kỹ sư phần mềm, nhà nghiên cứu, nghệ sĩ, thậm chí nông dân trồng cần sa; nhiều người làm trong lĩnh vực AI, bảo mật, số còn lại là người tò mò hoặc sáng tạo. Động lực chính không phải ác ý mà là tò mò trí tuệ, thử nghiệm sáng...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Back
Top