Đáng lo ngại: không chỉ có trình độ ngang Tiến sĩ, mô hình AI của OpenAI còn biết "nói dối" có chủ đích

A
Hà Vi
Phản hồi: 0

Hà Vi

New member
OpenAI vừa phát hành mô hình AI "biết suy luận" o1, nhưng công ty nghiên cứu an toàn AI độc lập Apollo đã phát hiện ra một vấn đề đáng chú ý: mô hình này có khả năng đưa ra thông tin sai lệch một cách có chủ đích, hay nói cách khác, là "nói dối". AI "lừa dối" để đạt mục tiêu Đôi khi sự dối trá dường như vô hại. Ví dụ, khi được yêu cầu cung cấp công thức làm bánh brownie với tham khảo trực tuyến, o1-preview đã tạo ra các liên kết và mô tả giả mạo,...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Back
Top