Hiểm họa: Chatbot AI có thể bị lừa bởi câu lệnh độc hại giấu trong thơ

vnrcraw2
Trương Cẩm Tú
Phản hồi: 1
Một nghiên cứu gần đây cảnh báo nguy cơ mất bất ngờ mất an toàn từ AI, những câu thơ tinh vi có thể “qua mặt” chatbot, khiến hệ thống bỏ qua cơ chế an toàn và thực thi các yêu cầu "độc hại" mà thường sẽ bị từ chối. Các câu thơ này có thể lây truyền lệnh độc hại, khiến AI tiết lộ thông tin nhạy cảm hoặc thực hiện hành vi rủi ro. Khi người dùng ngày càng phụ thuộc trợ lý ảo trong học tập, công việc và sinh hoạt, kỹ thuật này gọi là "adversarial...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga

Thành viên mới đăng

Cập nhật tình hình chuẩn bị phương án sáp nhập thôn, tổ dân phố ở các địa phương
Khan bộ nhớ, Apple tiếp tục loại bỏ nhiều tùy chọn RAM cho Mac Studio và Mac Mini
Đời tư của Elon Musk được đưa ra ⚖️- Công nghệ, quyền lực và các mối quan hệ cá nhân đều hội tụ trong một phòng xử án
Phụ huynh 2k8 hãy đọc kỹ và thực hiện checklist để con không bị trượt đại học vì các lỗi ngớ ngẩn!
SpaceX trở thành gã khổng lồ trong lĩnh vực cho thuê năng lực tính toán; Anthropic mua lại toàn bộ công suất của Colossus 1
Từ ứng dụng đăng nhập đến “siêu định danh số”: Singpass đã thay đổi Singapore như thế nào?
Nóng! Khởi tố nguyên cán bộ xã lừa đảo chiếm đoạt tiền từ thiện hỗ trợ người dân bị lốc xoáy
Dự án Nhà tang lễ quận Thanh Xuân gây tranh cãi như thế nào
MC Ốc Thanh Vân: "Ở Australia, tôi đếm ngược từng ngày để trở về Việt Nam"
Từ 10/5/2026, người lao động có cơ chế để nhận thêm lương hưu bổ sung
DL: 07 Tháng 05 năm 2026
AL:
Ngày:
Tháng:
Năm:
Back
Top