Màu của em
Thành viên tích cực
Mới đây, các nhà nghiên cứu bảo mật đã phát hiện ra lỗ hổng nghiêm trọng trong mô hình AI DeepSeek R1, cho phép các lời nhắc độc hại (malicious prompts) dễ dàng "qua mặt" hệ thống phòng thủ của AI này, dẫn đến nguy cơ tiềm ẩn về an toàn thông tin. Theo báo cáo công bố cuối tuần qua trên blog chính thức, nhóm nghiên cứu của Cisco đã tiến hành thử nghiệm DeepSeek R1 - mô hình AI mới nhất được DeepSeek ra mắt ngày 20/1 - bằng cách sử dụng các kỹ thuật bẻ khóa thuật toán...
Đọc bài gốc tại đây
Đọc bài gốc tại đây