Chỉ một câu lệnh, và AI có thể biến thành “gián điệp”?

Khi các mô hình ngôn ngữ lớn (LLM) được tích hợp vào hệ thống doanh nghiệp, một lỗ hổng mới xuất hiện: khai thác ngôn ngữ để điều khiển tác nhân AI. Không cần mã độc hay liên kết lừa đảo kẻ tấn công chỉ cần một lời nhắc đúng cách. Trong vụ tấn công "không nhấp chuột" mang tên Echoleak, Microsoft 365 Copilot đã bị thao túng bởi một lời nhắc được ngụy trang trong dữ liệu. Copilot không bị hack theo nghĩa truyền thống nó chỉ đơn giản làm điều nó được thiết kế: hiểu và thực hiện lệnh....
Đọc bài gốc tại
đây
Đăng nhập một lần thảo luận tẹt ga
window.googletag = window.googletag || {cmd: []};
googletag.cmd.push(function() {
window.uk_delivery_1753154734465 = googletag.defineSlot('/57976558/Ureka_Supply_home.vn_Outstream_1x1_270225', [1,1], 'div-gpt-ad-1753154734465-0').addService(googletag.pubads());
googletag.pubads().enableSingleRequest();
googletag.enableServices();
googletag.display('div-gpt-ad-1753154734465-0');
});
googletag.cmd.push(function() {
if(googletag.pubads().isInitialLoadDisabled() && !window.uk_delivery_1753154734465.getResponseInformation()){
googletag.pubads().refresh([window.uk_delivery_1753154734465])
}
});
window.googletag = window.googletag || {cmd: []};
googletag.cmd.push(function() {
window.uk_delivery_1753685560510 = googletag.defineSlot('/57976558/Ureka_Supply_home.vn_InpageMB_1x1_110325', [1,1], 'div-gpt-ad-1753685560510-0').addService(googletag.pubads());
googletag.pubads().enableSingleRequest();
googletag.enableServices();
googletag.display('div-gpt-ad-1753685560510-0');
});
googletag.cmd.push(function() {
if(googletag.pubads().isInitialLoadDisabled() && !window.uk_delivery_1753685560510.getResponseInformation()){
googletag.pubads().refresh([window.uk_delivery_1753685560510])
}
});