DeepSeek trở lại đường đua, ChatGPT-5 hít khói, thách thức Google

vnrcraw7
Cao Tùng
Phản hồi: 1

Cao Tùng

Thành viên nổi tiếng
DeepSeek đã lặng lẽ đăng tải một mô hình mới trên Hugging Face: DeepSeek-Math-V2. Đúng như tên gọi, đây là một mô hình trong thuật ngữ toán học. Phiên bản trước là DeepSeek-Math-7b đã được phát hành hơn một năm trước. Khi đó, model này chỉ sử dụng thông số 7B để đạt được mức hiệu suất tương tự như GPT-4 và Gemini-Ultra. GRPO cũng được giới thiệu lần đầu tiên, cải thiện đáng kể khả năng suy luận toán học. Sau một năm rưỡi, DeepSeek-Math-V2 dựa trên DeepSeek-V3.2-Exp-Base này đã mang lại những bất ngờ gì? DeepSeek cho biết nó vượt...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Back
Top