AI và DePIN giao thoa: Sự trỗi dậy của mạng GPU Phi tập trung
Kể từ năm 2023, AI và DePIN đều là những chủ đề hot trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá sự giao thoa giữa hai khái niệm và nghiên cứu sự phát triển của các giao thức trong lĩnh vực này.
Trong ngăn xếp công nghệ AI, mạng DePIN cung cấp tính hữu dụng cho AI thông qua tài nguyên tính toán. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác thiếu GPU đủ để thực hiện tính toán. Điều này thường dẫn đến việc các nhà phát triển chọn nhà cung cấp đám mây tập trung, nhưng do phải ký hợp đồng phần cứng hiệu suất cao dài hạn không linh hoạt, dẫn đến hiệu suất kém.
DePIN về bản chất cung cấp một giải pháp thay thế linh hoạt và hiệu quả về chi phí hơn, nó sử dụng phần thưởng bằng token để khuyến khích các đóng góp tài nguyên phù hợp với mục tiêu của mạng. DePIN trong lĩnh vực AI sẽ huy động tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, tạo ra một nguồn cung thống nhất cho những người dùng cần truy cập phần cứng. Những mạng DePIN này không chỉ cung cấp tính tùy biến và truy cập theo yêu cầu cho các nhà phát triển cần sức mạnh tính toán, mà còn mang lại thu nhập bổ sung cho các chủ sở hữu GPU.
Tóm lược mạng DePIN AI
Render là tiên phong trong mạng P2P cung cấp khả năng tính toán GPU, trước đây tập trung vào việc tạo nội dung để kết xuất đồ họa, sau đó mở rộng phạm vi của mình bao gồm các nhiệm vụ tính toán AI từ trường phản xạ thần kinh (NeRF) đến AI sinh.
Điều thú vị:
Được thành lập bởi công ty đồ họa đám mây OTOY, sở hữu công nghệ đoạt giải Oscar.
Mạng GPU đã được các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG, Star Trek sử dụng.
Hợp tác với Stability AI và Endeavor, sử dụng GPU của Render để tích hợp mô hình AI của họ vào quy trình làm việc kết xuất nội dung 3D
Phê duyệt nhiều khách hàng tính toán, tích hợp nhiều GPU của mạng DePIN hơn.
Akash định vị mình là một "siêu đám mây" thay thế cho các nền tảng truyền thống hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng các công cụ thân thiện với nhà phát triển như nền tảng container Akash và các nút tính toán được quản lý bởi Kubernetes, nó có khả năng triển khai phần mềm một cách liền mạch qua các môi trường, từ đó có thể chạy bất kỳ ứng dụng gốc trên đám mây nào.
Điều thú vị:
Đối với các nhiệm vụ tính toán rộng rãi từ tính toán tổng quát đến lưu trữ mạng
AkashML cho phép mạng GPU của mình chạy hơn 15,000 mô hình trên Hugging Face, đồng thời tích hợp với Hugging Face.
Akash đang lưu trữ một số ứng dụng đáng chú ý, chẳng hạn như chatbot mô hình LLM của Mistral AI, mô hình chuyển văn bản thành hình ảnh SDXL của Stability AI, và mô hình cơ bản mới AT-1 của Thumper AI.
Nền tảng xây dựng vũ trụ ảo, triển khai trí tuệ nhân tạo và học liên bang đang tận dụng Supercloud
io.net cung cấp quyền truy cập vào các cụm GPU đám mây phân tán, những cụm này được thiết kế đặc biệt cho các trường hợp sử dụng AI và ML. Nó tập hợp GPU từ các trung tâm dữ liệu, thợ đào tiền điện tử và các mạng Phi tập trung khác. Công ty trước đây là một công ty giao dịch định lượng, sau khi giá GPU hiệu suất cao tăng mạnh, công ty đã chuyển sang hoạt động kinh doanh hiện tại.
Điều thú vị:
SDK IO của nó tương thích với các khung như PyTorch và Tensorflow, kiến trúc đa lớp của nó có thể tự động mở rộng theo nhu cầu tính toán.
Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong vòng 2 phút
Nỗ lực hợp tác mạnh mẽ để tích hợp GPU từ các mạng DePIN khác, bao gồm Render, Filecoin, Aethir và Exabits
Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó tuyên bố rằng so với các phương pháp hiện có, thông qua việc kết hợp sử dụng các khái niệm như bằng chứng học để xác minh công việc, giao thức định vị chính xác dựa trên đồ họa để chạy lại công việc xác minh và các trò chơi khuyến khích kiểu Truebit liên quan đến nhà cung cấp tính toán, đã đạt được cơ chế xác minh hiệu quả hơn.
Điều thú vị:
Dự kiến chi phí mỗi giờ cho GPU tương đương V100 khoảng 0,40 đô la/giờ, từ đó tiết kiệm chi phí đáng kể.
Thông qua việc chứng minh chồng chất, có thể tinh chỉnh mô hình cơ bản đã được huấn luyện trước để hoàn thành các nhiệm vụ cụ thể hơn.
Những mô hình cơ bản này sẽ là Phi tập trung, thuộc sở hữu toàn cầu, cung cấp các chức năng bổ sung ngoài mạng tính toán phần cứng.
Aethir chuyên cung cấp GPU doanh nghiệp, tập trung vào lĩnh vực tính toán chuyên sâu, chủ yếu là trí tuệ nhân tạo, học máy (ML), trò chơi đám mây, v.v. Các container trong mạng của nó đóng vai trò là điểm cuối ảo thực thi các ứng dụng dựa trên đám mây, di chuyển khối lượng công việc từ thiết bị cục bộ đến container để đạt được trải nghiệm độ trễ thấp. Để đảm bảo cung cấp dịch vụ chất lượng cho người dùng, họ di chuyển GPU gần nguồn dữ liệu theo nhu cầu và vị trí, từ đó điều chỉnh tài nguyên.
Điều thú vị:
Ngoài trí tuệ nhân tạo và trò chơi trên đám mây, Aethir còn mở rộng sang dịch vụ điện thoại đám mây và hợp tác với APhone để ra mắt điện thoại thông minh đám mây phi tập trung.
Đã thiết lập mối quan hệ đối tác rộng rãi với các công ty Web2 lớn như NVIDIA, Super Micro, HPE, Foxconn và Well Link
Nhiều đối tác trong Web3, chẳng hạn như CARV, Magic Eden, Sequence, Impossible Finance, v.v.
Phala Network hoạt động như một lớp thực thi cho giải pháp AI Web3. Blockchain của nó là một giải pháp điện toán đám mây không cần tin cậy, được thiết kế để giải quyết các vấn đề về quyền riêng tư bằng cách sử dụng môi trường thực thi đáng tin cậy (TEE). Lớp thực thi của nó không được sử dụng như một lớp tính toán cho mô hình AI, mà cho phép các đại lý AI được điều khiển bởi các hợp đồng thông minh trên chuỗi.
Điều thú vị:
Đóng vai trò là giao thức đồng xử lý tính toán có thể xác minh, đồng thời cũng cho phép đại lý AI truy cập tài nguyên trên chuỗi.
Hợp đồng đại diện trí tuệ nhân tạo của nó có thể nhận được các mô hình ngôn ngữ lớn hàng đầu như OpenAI, Llama, Claude và Hugging Face thông qua Redpill.
Tương lai sẽ bao gồm zk-proofs, Phi tập trung (MPC), và mã hóa toàn đồng (FHE) cùng với nhiều hệ thống chứng minh khác.
Tương lai hỗ trợ H100 và các GPU TEE khác, nâng cao khả năng tính toán
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Trọng tâm kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | Trí tuệ nhân tạo, trò chơi đám mây và viễn thông | Thực hiện AI trên chuỗi |
| Loại nhiệm vụ AI | Suy luận | Cả hai | Cả hai | Đào tạo | Đào tạo | Thực hiện |
| Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi |
| Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Quyền riêng tư dữ liệu | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE |
| Chi phí công việc | 0.5-5% cho mỗi công việc | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | 20% cho mỗi phiên | Tương ứng với số tiền đặt cọc |
| An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian |
| Hoàn thành chứng minh | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE |
| Chất lượng đảm bảo | Tranh chấp | - | - | Người xác minh và người báo cáo | Node kiểm tra | Chứng minh từ xa |
| Cụm GPU | Không | Có | Có | Có | Có | Không |
Tầm quan trọng
Khả năng sử dụng của cụm và tính toán song song
Khung tính toán phân tán đã triển khai GPU cluster, cung cấp đào tạo hiệu quả hơn mà không ảnh hưởng đến độ chính xác của mô hình, đồng thời tăng cường khả năng mở rộng. Để đào tạo các mô hình AI phức tạp hơn, cần có sức mạnh tính toán mạnh mẽ, điều này thường phải dựa vào tính toán phân tán để đáp ứng nhu cầu của nó. Từ góc độ trực quan hơn, mô hình GPT-4 của OpenAI có hơn 1,8 ngàn tỷ tham số, được đào tạo trong 3-4 tháng với khoảng 25.000 GPU Nvidia A100 trong 128 cụm.
Trước đây, Render và Akash chỉ cung cấp GPU cho một mục đích duy nhất, điều này có thể hạn chế nhu cầu thị trường đối với GPU. Tuy nhiên, hầu hết các dự án trọng điểm hiện nay đã tích hợp các cụm để thực hiện tính toán song song. io.net hợp tác với các dự án khác như Render, Filecoin và Aethir để đưa nhiều GPU hơn vào mạng của mình, và đã thành công trong việc triển khai hơn 3.800 cụm trong quý 1 năm 24. Mặc dù Render không hỗ trợ cụm, nhưng cách hoạt động của nó tương tự như cụm, phân chia một khung hình thành nhiều nút khác nhau để xử lý đồng thời các khung hình ở các phạm vi khác nhau. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép cụm hóa các bộ xử lý CPU.
Việc đưa khung tập hợp vào mạng lưới quy trình làm việc AI là rất quan trọng, nhưng số lượng và loại GPU tập hợp cần thiết để đáp ứng nhu cầu của các nhà phát triển AI là một vấn đề riêng biệt, chúng tôi sẽ thảo luận trong phần sau.
Quyền riêng tư dữ liệu
Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, những tập dữ liệu này có thể đến từ nhiều nguồn khác nhau và có hình thức đa dạng. Các tập dữ liệu nhạy cảm như hồ sơ y tế cá nhân, dữ liệu tài chính của người dùng có thể phải đối mặt với rủi ro bị lộ cho nhà cung cấp mô hình. Samsung đã cấm nội bộ việc sử dụng ChatGPT vì lo ngại rằng việc tải lên mã nhạy cảm lên nền tảng có thể xâm phạm quyền riêng tư, sự cố rò rỉ 38TB dữ liệu riêng tư của Microsoft càng làm nổi bật tầm quan trọng của việc thực hiện các biện pháp an toàn đầy đủ khi sử dụng AI. Do đó, việc sở hữu các phương pháp bảo mật dữ liệu khác nhau là rất quan trọng để trao lại quyền kiểm soát dữ liệu cho nhà cung cấp dữ liệu.
Hầu hết các dự án được đề cập đều sử dụng một hình thức mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư dữ liệu. Mã hóa dữ liệu đảm bảo rằng việc truyền dữ liệu từ nhà cung cấp dữ liệu đến nhà cung cấp mô hình ( và người nhận dữ liệu ) trong mạng được bảo vệ. Render sử dụng mã hóa và xử lý băm khi phát hành kết quả kết xuất trở lại mạng, trong khi io.net và Gensyn áp dụng một hình thức mã hóa dữ liệu nào đó. Akash sử dụng xác thực mTLS, chỉ cho phép nhà cung cấp được lựa chọn bởi người thuê nhận dữ liệu.
Tuy nhiên, io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa đồng nhất hoàn toàn (FHE), cho phép xử lý dữ liệu được mã hóa mà không cần giải mã trước. Bằng cách cho phép dữ liệu được truyền tải một cách an toàn cho mục đích đào tạo mà không cần tiết lộ danh tính và nội dung dữ liệu, sáng kiến này có thể đảm bảo quyền riêng tư dữ liệu tốt hơn so với các công nghệ mã hóa hiện có.
Mạng Phala giới thiệu TEE, tức là khu vực an toàn kết nối trong bộ xử lý chính của thiết bị. Thông qua cơ chế cách ly này, nó có thể ngăn chặn các tiến trình bên ngoài truy cập hoặc sửa đổi dữ liệu, bất kể cấp độ quyền của chúng, ngay cả đối với những cá nhân có quyền truy cập vật lý vào máy. Ngoài TEE, nó còn kết hợp việc sử dụng zk-proofs trong bộ xác thực zkDCAP và giao diện dòng lệnh jtee, nhằm tích hợp các chương trình với RiscZero zkVM.
Chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Các GPU được cung cấp bởi những dự án này có thể cung cấp khả năng tính toán cho một loạt các dịch vụ. Do những dịch vụ này rất đa dạng, từ việc kết xuất đồ họa đến tính toán AI, nên chất lượng cuối cùng của các tác vụ như vậy có thể không luôn đạt tiêu chuẩn của người dùng. Có thể sử dụng hình thức chứng minh hoàn thành để biểu thị rằng GPU cụ thể mà người dùng thuê thực sự được sử dụng để chạy dịch vụ cần thiết, và việc kiểm tra chất lượng là có lợi cho người dùng yêu cầu hoàn thành những công việc như vậy.
Sau khi tính toán hoàn tất, Gensyn và Aethir sẽ tạo ra các chứng nhận để chứng minh rằng công việc đã hoàn thành, trong khi chứng nhận của io.net cho thấy hiệu suất của GPU được thuê đã được tận dụng đầy đủ và không gặp vấn đề gì. Gensyn và Aethir đều sẽ kiểm tra chất lượng của các phép tính đã hoàn thành. Đối với Gensyn, nó sử dụng các người xác thực để chạy lại một phần nội dung của chứng nhận được tạo ra để đối chiếu với chứng nhận, trong khi người tố giác đóng vai trò như một lớp kiểm tra khác cho người xác thực. Đồng thời, Aethir sử dụng các nút kiểm tra để xác định chất lượng dịch vụ, phạt các dịch vụ không đạt tiêu chuẩn. Render khuyến nghị sử dụng quy trình giải quyết tranh chấp, nếu hội đồng kiểm tra phát hiện vấn đề với các nút, thì sẽ cắt giảm các nút đó. Sau khi Phala hoàn tất, sẽ tạo ra chứng nhận TEE, đảm bảo rằng các đại lý AI thực hiện các thao tác cần thiết trên chuỗi.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
12 thích
Phần thưởng
12
4
Chia sẻ
Bình luận
0/400
MetaverseLandlord
· 12giờ trước
Ai nói kiếm tiền không thể kiếm được một cách nghiêm túc? Đánh mạnh lên, đợt này ổn rồi.
Xem bản gốcTrả lời0
FlashLoanLarry
· 12giờ trước
smh những trò chơi depin này chỉ là điện toán đám mây fancy thật sự... nhưng tỷ lệ hiệu quả vốn đang nhìn khá hấp dẫn không thể không nói.
Xem bản gốcTrả lời0
LongTermDreamer
· 12giờ trước
Haha, sau ba năm nhận một máy khai thác là thu hồi vốn rồi.
AI và DePIN giao thoa: Sự nổi lên của mạng GPU phi tập trung và so sánh với các dự án chính thống
AI và DePIN giao thoa: Sự trỗi dậy của mạng GPU Phi tập trung
Kể từ năm 2023, AI và DePIN đều là những chủ đề hot trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá sự giao thoa giữa hai khái niệm và nghiên cứu sự phát triển của các giao thức trong lĩnh vực này.
Trong ngăn xếp công nghệ AI, mạng DePIN cung cấp tính hữu dụng cho AI thông qua tài nguyên tính toán. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác thiếu GPU đủ để thực hiện tính toán. Điều này thường dẫn đến việc các nhà phát triển chọn nhà cung cấp đám mây tập trung, nhưng do phải ký hợp đồng phần cứng hiệu suất cao dài hạn không linh hoạt, dẫn đến hiệu suất kém.
DePIN về bản chất cung cấp một giải pháp thay thế linh hoạt và hiệu quả về chi phí hơn, nó sử dụng phần thưởng bằng token để khuyến khích các đóng góp tài nguyên phù hợp với mục tiêu của mạng. DePIN trong lĩnh vực AI sẽ huy động tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, tạo ra một nguồn cung thống nhất cho những người dùng cần truy cập phần cứng. Những mạng DePIN này không chỉ cung cấp tính tùy biến và truy cập theo yêu cầu cho các nhà phát triển cần sức mạnh tính toán, mà còn mang lại thu nhập bổ sung cho các chủ sở hữu GPU.
Tóm lược mạng DePIN AI
Render là tiên phong trong mạng P2P cung cấp khả năng tính toán GPU, trước đây tập trung vào việc tạo nội dung để kết xuất đồ họa, sau đó mở rộng phạm vi của mình bao gồm các nhiệm vụ tính toán AI từ trường phản xạ thần kinh (NeRF) đến AI sinh.
Điều thú vị:
Được thành lập bởi công ty đồ họa đám mây OTOY, sở hữu công nghệ đoạt giải Oscar.
Mạng GPU đã được các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG, Star Trek sử dụng.
Hợp tác với Stability AI và Endeavor, sử dụng GPU của Render để tích hợp mô hình AI của họ vào quy trình làm việc kết xuất nội dung 3D
Phê duyệt nhiều khách hàng tính toán, tích hợp nhiều GPU của mạng DePIN hơn.
Akash định vị mình là một "siêu đám mây" thay thế cho các nền tảng truyền thống hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng các công cụ thân thiện với nhà phát triển như nền tảng container Akash và các nút tính toán được quản lý bởi Kubernetes, nó có khả năng triển khai phần mềm một cách liền mạch qua các môi trường, từ đó có thể chạy bất kỳ ứng dụng gốc trên đám mây nào.
Điều thú vị:
Đối với các nhiệm vụ tính toán rộng rãi từ tính toán tổng quát đến lưu trữ mạng
AkashML cho phép mạng GPU của mình chạy hơn 15,000 mô hình trên Hugging Face, đồng thời tích hợp với Hugging Face.
Akash đang lưu trữ một số ứng dụng đáng chú ý, chẳng hạn như chatbot mô hình LLM của Mistral AI, mô hình chuyển văn bản thành hình ảnh SDXL của Stability AI, và mô hình cơ bản mới AT-1 của Thumper AI.
Nền tảng xây dựng vũ trụ ảo, triển khai trí tuệ nhân tạo và học liên bang đang tận dụng Supercloud
io.net cung cấp quyền truy cập vào các cụm GPU đám mây phân tán, những cụm này được thiết kế đặc biệt cho các trường hợp sử dụng AI và ML. Nó tập hợp GPU từ các trung tâm dữ liệu, thợ đào tiền điện tử và các mạng Phi tập trung khác. Công ty trước đây là một công ty giao dịch định lượng, sau khi giá GPU hiệu suất cao tăng mạnh, công ty đã chuyển sang hoạt động kinh doanh hiện tại.
Điều thú vị:
SDK IO của nó tương thích với các khung như PyTorch và Tensorflow, kiến trúc đa lớp của nó có thể tự động mở rộng theo nhu cầu tính toán.
Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong vòng 2 phút
Nỗ lực hợp tác mạnh mẽ để tích hợp GPU từ các mạng DePIN khác, bao gồm Render, Filecoin, Aethir và Exabits
Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó tuyên bố rằng so với các phương pháp hiện có, thông qua việc kết hợp sử dụng các khái niệm như bằng chứng học để xác minh công việc, giao thức định vị chính xác dựa trên đồ họa để chạy lại công việc xác minh và các trò chơi khuyến khích kiểu Truebit liên quan đến nhà cung cấp tính toán, đã đạt được cơ chế xác minh hiệu quả hơn.
Điều thú vị:
Dự kiến chi phí mỗi giờ cho GPU tương đương V100 khoảng 0,40 đô la/giờ, từ đó tiết kiệm chi phí đáng kể.
Thông qua việc chứng minh chồng chất, có thể tinh chỉnh mô hình cơ bản đã được huấn luyện trước để hoàn thành các nhiệm vụ cụ thể hơn.
Những mô hình cơ bản này sẽ là Phi tập trung, thuộc sở hữu toàn cầu, cung cấp các chức năng bổ sung ngoài mạng tính toán phần cứng.
Aethir chuyên cung cấp GPU doanh nghiệp, tập trung vào lĩnh vực tính toán chuyên sâu, chủ yếu là trí tuệ nhân tạo, học máy (ML), trò chơi đám mây, v.v. Các container trong mạng của nó đóng vai trò là điểm cuối ảo thực thi các ứng dụng dựa trên đám mây, di chuyển khối lượng công việc từ thiết bị cục bộ đến container để đạt được trải nghiệm độ trễ thấp. Để đảm bảo cung cấp dịch vụ chất lượng cho người dùng, họ di chuyển GPU gần nguồn dữ liệu theo nhu cầu và vị trí, từ đó điều chỉnh tài nguyên.
Điều thú vị:
Ngoài trí tuệ nhân tạo và trò chơi trên đám mây, Aethir còn mở rộng sang dịch vụ điện thoại đám mây và hợp tác với APhone để ra mắt điện thoại thông minh đám mây phi tập trung.
Đã thiết lập mối quan hệ đối tác rộng rãi với các công ty Web2 lớn như NVIDIA, Super Micro, HPE, Foxconn và Well Link
Nhiều đối tác trong Web3, chẳng hạn như CARV, Magic Eden, Sequence, Impossible Finance, v.v.
Phala Network hoạt động như một lớp thực thi cho giải pháp AI Web3. Blockchain của nó là một giải pháp điện toán đám mây không cần tin cậy, được thiết kế để giải quyết các vấn đề về quyền riêng tư bằng cách sử dụng môi trường thực thi đáng tin cậy (TEE). Lớp thực thi của nó không được sử dụng như một lớp tính toán cho mô hình AI, mà cho phép các đại lý AI được điều khiển bởi các hợp đồng thông minh trên chuỗi.
Điều thú vị:
Đóng vai trò là giao thức đồng xử lý tính toán có thể xác minh, đồng thời cũng cho phép đại lý AI truy cập tài nguyên trên chuỗi.
Hợp đồng đại diện trí tuệ nhân tạo của nó có thể nhận được các mô hình ngôn ngữ lớn hàng đầu như OpenAI, Llama, Claude và Hugging Face thông qua Redpill.
Tương lai sẽ bao gồm zk-proofs, Phi tập trung (MPC), và mã hóa toàn đồng (FHE) cùng với nhiều hệ thống chứng minh khác.
Tương lai hỗ trợ H100 và các GPU TEE khác, nâng cao khả năng tính toán
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Trọng tâm kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | Trí tuệ nhân tạo, trò chơi đám mây và viễn thông | Thực hiện AI trên chuỗi | | Loại nhiệm vụ AI | Suy luận | Cả hai | Cả hai | Đào tạo | Đào tạo | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Quyền riêng tư dữ liệu | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí công việc | 0.5-5% cho mỗi công việc | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | 20% cho mỗi phiên | Tương ứng với số tiền đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian | | Hoàn thành chứng minh | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE | | Chất lượng đảm bảo | Tranh chấp | - | - | Người xác minh và người báo cáo | Node kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |
Tầm quan trọng
Khả năng sử dụng của cụm và tính toán song song
Khung tính toán phân tán đã triển khai GPU cluster, cung cấp đào tạo hiệu quả hơn mà không ảnh hưởng đến độ chính xác của mô hình, đồng thời tăng cường khả năng mở rộng. Để đào tạo các mô hình AI phức tạp hơn, cần có sức mạnh tính toán mạnh mẽ, điều này thường phải dựa vào tính toán phân tán để đáp ứng nhu cầu của nó. Từ góc độ trực quan hơn, mô hình GPT-4 của OpenAI có hơn 1,8 ngàn tỷ tham số, được đào tạo trong 3-4 tháng với khoảng 25.000 GPU Nvidia A100 trong 128 cụm.
Trước đây, Render và Akash chỉ cung cấp GPU cho một mục đích duy nhất, điều này có thể hạn chế nhu cầu thị trường đối với GPU. Tuy nhiên, hầu hết các dự án trọng điểm hiện nay đã tích hợp các cụm để thực hiện tính toán song song. io.net hợp tác với các dự án khác như Render, Filecoin và Aethir để đưa nhiều GPU hơn vào mạng của mình, và đã thành công trong việc triển khai hơn 3.800 cụm trong quý 1 năm 24. Mặc dù Render không hỗ trợ cụm, nhưng cách hoạt động của nó tương tự như cụm, phân chia một khung hình thành nhiều nút khác nhau để xử lý đồng thời các khung hình ở các phạm vi khác nhau. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép cụm hóa các bộ xử lý CPU.
Việc đưa khung tập hợp vào mạng lưới quy trình làm việc AI là rất quan trọng, nhưng số lượng và loại GPU tập hợp cần thiết để đáp ứng nhu cầu của các nhà phát triển AI là một vấn đề riêng biệt, chúng tôi sẽ thảo luận trong phần sau.
Quyền riêng tư dữ liệu
Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, những tập dữ liệu này có thể đến từ nhiều nguồn khác nhau và có hình thức đa dạng. Các tập dữ liệu nhạy cảm như hồ sơ y tế cá nhân, dữ liệu tài chính của người dùng có thể phải đối mặt với rủi ro bị lộ cho nhà cung cấp mô hình. Samsung đã cấm nội bộ việc sử dụng ChatGPT vì lo ngại rằng việc tải lên mã nhạy cảm lên nền tảng có thể xâm phạm quyền riêng tư, sự cố rò rỉ 38TB dữ liệu riêng tư của Microsoft càng làm nổi bật tầm quan trọng của việc thực hiện các biện pháp an toàn đầy đủ khi sử dụng AI. Do đó, việc sở hữu các phương pháp bảo mật dữ liệu khác nhau là rất quan trọng để trao lại quyền kiểm soát dữ liệu cho nhà cung cấp dữ liệu.
Hầu hết các dự án được đề cập đều sử dụng một hình thức mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư dữ liệu. Mã hóa dữ liệu đảm bảo rằng việc truyền dữ liệu từ nhà cung cấp dữ liệu đến nhà cung cấp mô hình ( và người nhận dữ liệu ) trong mạng được bảo vệ. Render sử dụng mã hóa và xử lý băm khi phát hành kết quả kết xuất trở lại mạng, trong khi io.net và Gensyn áp dụng một hình thức mã hóa dữ liệu nào đó. Akash sử dụng xác thực mTLS, chỉ cho phép nhà cung cấp được lựa chọn bởi người thuê nhận dữ liệu.
Tuy nhiên, io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa đồng nhất hoàn toàn (FHE), cho phép xử lý dữ liệu được mã hóa mà không cần giải mã trước. Bằng cách cho phép dữ liệu được truyền tải một cách an toàn cho mục đích đào tạo mà không cần tiết lộ danh tính và nội dung dữ liệu, sáng kiến này có thể đảm bảo quyền riêng tư dữ liệu tốt hơn so với các công nghệ mã hóa hiện có.
Mạng Phala giới thiệu TEE, tức là khu vực an toàn kết nối trong bộ xử lý chính của thiết bị. Thông qua cơ chế cách ly này, nó có thể ngăn chặn các tiến trình bên ngoài truy cập hoặc sửa đổi dữ liệu, bất kể cấp độ quyền của chúng, ngay cả đối với những cá nhân có quyền truy cập vật lý vào máy. Ngoài TEE, nó còn kết hợp việc sử dụng zk-proofs trong bộ xác thực zkDCAP và giao diện dòng lệnh jtee, nhằm tích hợp các chương trình với RiscZero zkVM.
Chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Các GPU được cung cấp bởi những dự án này có thể cung cấp khả năng tính toán cho một loạt các dịch vụ. Do những dịch vụ này rất đa dạng, từ việc kết xuất đồ họa đến tính toán AI, nên chất lượng cuối cùng của các tác vụ như vậy có thể không luôn đạt tiêu chuẩn của người dùng. Có thể sử dụng hình thức chứng minh hoàn thành để biểu thị rằng GPU cụ thể mà người dùng thuê thực sự được sử dụng để chạy dịch vụ cần thiết, và việc kiểm tra chất lượng là có lợi cho người dùng yêu cầu hoàn thành những công việc như vậy.
Sau khi tính toán hoàn tất, Gensyn và Aethir sẽ tạo ra các chứng nhận để chứng minh rằng công việc đã hoàn thành, trong khi chứng nhận của io.net cho thấy hiệu suất của GPU được thuê đã được tận dụng đầy đủ và không gặp vấn đề gì. Gensyn và Aethir đều sẽ kiểm tra chất lượng của các phép tính đã hoàn thành. Đối với Gensyn, nó sử dụng các người xác thực để chạy lại một phần nội dung của chứng nhận được tạo ra để đối chiếu với chứng nhận, trong khi người tố giác đóng vai trò như một lớp kiểm tra khác cho người xác thực. Đồng thời, Aethir sử dụng các nút kiểm tra để xác định chất lượng dịch vụ, phạt các dịch vụ không đạt tiêu chuẩn. Render khuyến nghị sử dụng quy trình giải quyết tranh chấp, nếu hội đồng kiểm tra phát hiện vấn đề với các nút, thì sẽ cắt giảm các nút đó. Sau khi Phala hoàn tất, sẽ tạo ra chứng nhận TEE, đảm bảo rằng các đại lý AI thực hiện các thao tác cần thiết trên chuỗi.
Dữ liệu thống kê phần cứng
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|