Huawei "tuyên chiến" DeepSeek: Tung kỹ thuật huấn luyện AI MoGE, tuyên bố hiệu quả hơn!

vnrcraw7
Cao Tùng
Phản hồi: 0

Cao Tùng

Thành viên nổi tiếng
Các nhà nghiên cứu phát triển mô hình Pangu của Huawei đã giới thiệu khái niệm "Mixture of Grouped Experts" (MoGE), một phiên bản nâng cấp của kỹ thuật MoE mà DeepSeek đã sử dụng thành công. Huawei khẳng định phương pháp mới giúp cân bằng tải tốt hơn và đạt hiệu suất vượt trội trên các bài kiểm tra benchmark. Huawei nâng tầm cuộc chơi huấn luyện AI với kiến trúc MoGE Trong một động thái cho thấy sự cạnh tranh ngày càng quyết liệt trên thị trường Trí tuệ Nhân tạo (AI), các nhà nghiên cứu làm việc trên mô...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga

Thành viên mới đăng

Back
Top