CT đã ngủ quên trên bài báo AI phi tập trung lớn nhất năm 2025


Jensen tham gia All-In, CT đầu tư vào TAO
nhưng công việc thực sự đã được hoàn thành từ 9 tháng trước
bước đột phá trong đào tạo AI phi tập trung đã xảy ra cách đây 9 tháng
Vào tháng 6 năm 2025, @0G_labs đã công bố một bài báo trên arXiv có tên là DiLoCoX
một khung framework đào tạo mô hình 107 tỷ tham số trên 20 nút phi tập trung qua internet tiêu chuẩn 1 Gbps
kết quả:
3.728 token/giây so với 10.4 của AllReduce
đây là cải thiện 357 lần về hiệu quả truyền thông
xác thực khung framework nhưng là benchmark công khai duy nhất ở mức độ hiệu quả này
và hầu như không ai đề cập đến nó
- Bittensor's Covenant-72B là một mô hình đã được đào tạo
- DiLoCoX là một framework để đào tạo bất kỳ mô hình nào trên hạ tầng phi tập trung, hoàn toàn khác biệt về loại hình
đằng sau nó là một hệ thống đầy đủ: Tính toán, Lưu trữ, DA và Chain, không dự án nào khác tích hợp cả bốn lớp này
Jensen chỉ cần xác nhận luận đề, 0G Labs đã chứng minh điều đó từ một năm trước
Ngày 1 tháng 4, họ sẽ phát biểu tại EthCC Cannes, chương tiếp theo sắp tới
TAO-6,46%
0G-3,62%
Xem bản gốc
post-image
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim