Google tìm ra mô hình mới để bỏ qua đào tạo GPU | Diễn giải bài báo mới của DeepMind

vnrcraw2
Trương Cẩm Tú
Phản hồi: 1
Bước sang cuối năm 2025, cuộc cạnh tranh trong AI chuyển từ chạy đua xử lý văn bản dài sang tối ưu khả năng ghi nhớ. DeepMind mở hai hướng tiếp cận khác nhau. Kiến trúc HOPE cố gắng tái thiết toàn bộ Transformer để tạo bộ nhớ dài hạn và ngắn hạn giống sinh vật sống, nhưng không tương thích với hạ tầng hiện tại và đòi hỏi thay đổi rất lớn. Ngược lại, Evo Memory lại không động vào tham số mô hình mà bổ sung một cơ chế trí nhớ linh hoạt thông qua suy luận siêu...

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Back
Top