Cảnh báo từ hàng loạt chuyên gia bảo mật: DeepSeek "thất thủ" hoàn toàn trước các lời nhắc độc hại

V
Màu của em
Phản hồi: 0

Màu của em

Thành viên tích cực
Mới đây, các nhà nghiên cứu bảo mật đã phát hiện ra lỗ hổng nghiêm trọng trong mô hình AI DeepSeek R1, cho phép các lời nhắc độc hại (malicious prompts) dễ dàng "qua mặt" hệ thống phòng thủ của AI này, dẫn đến nguy cơ tiềm ẩn về an toàn thông tin. Theo báo cáo công bố cuối tuần qua trên blog chính thức, nhóm nghiên cứu của Cisco đã tiến hành thử nghiệm DeepSeek R1 - mô hình AI mới nhất được DeepSeek ra mắt ngày 20/1 - bằng cách sử dụng các kỹ thuật bẻ khóa thuật toán...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga

, 03/02/2025

Back
Top