DeepSeek trở lại đường đua, ChatGPT-5 hít khói, thách thức Google

DeepSeek đã lặng lẽ đăng tải một mô hình mới trên Hugging Face: DeepSeek-Math-V2. Đúng như tên gọi, đây là một mô hình trong thuật ngữ toán học. Phiên bản trước là DeepSeek-Math-7b đã được phát hành hơn một năm trước. Khi đó, model này chỉ sử dụng thông số 7B để đạt được mức hiệu suất tương tự như GPT-4 và Gemini-Ultra. GRPO cũng được giới thiệu lần đầu tiên, cải thiện đáng kể khả năng suy luận toán học. Sau một năm rưỡi, DeepSeek-Math-V2 dựa trên DeepSeek-V3.2-Exp-Base này đã mang lại những bất ngờ gì? DeepSeek cho biết nó vượt...
Đọc bài gốc tại
đây
Đăng nhập một lần thảo luận tẹt ga
var adx_id_11792 = document.getElementById('bg-ssp-11792');
adx_id_11792.id = 'bg-ssp-11792-' + Math.floor(Math.random() * Date.now());
window.pubadxtag = window.pubadxtag || [];
window.pubadxtag.push({zoneid: 11792, id: adx_id_11792.id, wu: window.location.href})