Chỉ kể chuyện, AI của Snapchat vô tình hướng dẫn cách làm bom xăng

Bạn có tin một chatbot “thân thiện” có thể vô tình dạy người ta cách làm bom chỉ bằng một… câu chuyện không? Thí nghiệm mới của nhóm Cybernews cho thấy hệ thống AI của Snapchat – vốn đang phục vụ hơn 900 triệu người dùng mỗi tháng – có thể bị điều khiển để tiết lộ nội dung bị hạn chế một cách đáng lo ngại. Không cần kỹ thuật cao siêu, chỉ cần chuyển từ cách hỏi trực tiếp sang kể chuyện, chatbot này đã cung cấp thông tin về cách chế tạo vũ khí tự chế. Khi “kể chuyện”...
Đọc bài gốc tại
đây
Đăng nhập một lần thảo luận tẹt ga
window.googletag = window.googletag || {cmd: []};
googletag.cmd.push(function() {
window.uk_delivery_1753154734465 = googletag.defineSlot('/57976558/Ureka_Supply_home.vn_Outstream_1x1_270225', [1,1], 'div-gpt-ad-1753154734465-0').addService(googletag.pubads());
googletag.pubads().enableSingleRequest();
googletag.enableServices();
googletag.display('div-gpt-ad-1753154734465-0');
});
googletag.cmd.push(function() {
if(googletag.pubads().isInitialLoadDisabled() && !window.uk_delivery_1753154734465.getResponseInformation()){
googletag.pubads().refresh([window.uk_delivery_1753154734465])
}
});
window.googletag = window.googletag || {cmd: []};
googletag.cmd.push(function() {
window.uk_delivery_1753685560510 = googletag.defineSlot('/57976558/Ureka_Supply_home.vn_InpageMB_1x1_110325', [1,1], 'div-gpt-ad-1753685560510-0').addService(googletag.pubads());
googletag.pubads().enableSingleRequest();
googletag.enableServices();
googletag.display('div-gpt-ad-1753685560510-0');
});
googletag.cmd.push(function() {
if(googletag.pubads().isInitialLoadDisabled() && !window.uk_delivery_1753685560510.getResponseInformation()){
googletag.pubads().refresh([window.uk_delivery_1753685560510])
}
});