Sự giao thoa giữa AI và DePIN: Sự trỗi dậy của mạng lưới tính toán phân tán
Kể từ năm 2023, AI và DePIN đã trở thành xu hướng phổ biến trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này tập trung vào lĩnh vực giao thoa của cả hai, khám phá sự phát triển của các giao thức liên quan.
Trong công nghệ AI, mạng DePIN cung cấp tính thực tiễn cho AI thông qua tài nguyên tính toán. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu hụt GPU, khiến các nhà phát triển khác khó khăn trong việc có đủ GPU để tính toán. Điều này thường dẫn đến việc các nhà phát triển chọn nhà cung cấp đám mây tập trung, nhưng do hợp đồng phần cứng dài hạn không đủ linh hoạt nên hiệu suất thấp.
DePIN cung cấp giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, khuyến khích đóng góp tài nguyên thông qua phần thưởng token. DePIN trong lĩnh vực AI cộng đồng hóa tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, cung cấp nguồn cung cấp đồng nhất cho người dùng cần truy cập phần cứng. Điều này không chỉ mang lại cho các nhà phát triển khả năng truy cập tùy chỉnh và theo nhu cầu, mà còn mang lại thu nhập bổ sung cho các chủ sở hữu GPU.
Thị trường hiện có nhiều mạng AI DePIN, bài viết này sẽ khám phá vai trò, mục tiêu và thành tựu của từng giao thức, nhằm hiểu rõ sự khác biệt giữa chúng.
Tóm tắt mạng DePIN AI
Render là tiên phong trong mạng P2P cung cấp khả năng tính toán GPU, ban đầu tập trung vào việc tạo nội dung và sau đó mở rộng sang các nhiệm vụ tính toán AI.
Điểm chính:
Được thành lập bởi công ty hình ảnh đám mây OTOY
Mạng GPU được các công ty lớn trong ngành giải trí sử dụng
Hợp tác với Stability AI, tích hợp mô hình AI và quy trình làm việc 3D.
Phê duyệt nhiều máy khách tính toán, tích hợp nhiều GPU mạng DePIN hơn
Akash được định vị là một "siêu đám mây" thay thế hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng các công cụ thân thiện với nhà phát triển như nền tảng container và các nút tính toán được quản lý bởi Kubernetes, có thể triển khai phần mềm một cách liền mạch qua các môi trường.
Điểm chính:
Đối với các nhiệm vụ tính toán rộng rãi từ tính toán chung đến lưu trữ mạng
AkashML cho phép mạng GPU chạy hơn 15.000 mô hình trên Hugging Face
Đã quản lý các ứng dụng như chatbot mô hình LLM của Mistral AI
Xây dựng vũ trụ ảo, triển khai AI và các nền tảng khác sử dụng Supercloud của nó
io.net cung cấp truy cập vào cụm đám mây GPU phân tán, đặc biệt dành cho các trường hợp sử dụng AI và ML. Tập hợp GPU từ các trung tâm dữ liệu, thợ đào tiền điện tử và nhiều lĩnh vực khác.
Điểm chính:
IO-SDK tương thích với các framework như PyTorch, kiến trúc đa lớp có thể mở rộng động
Hỗ trợ tạo 3 loại cụm khác nhau, khởi động trong vòng 2 phút
Hợp tác với Render, Filecoin và các dự án khác để tích hợp tài nguyên GPU
Gensyn cung cấp khả năng GPU tập trung vào tính toán máy học và học sâu. Được cho là thực hiện cơ chế xác minh hiệu quả hơn thông qua các khái niệm như chứng minh bằng học.
Điểm chính:
Chi phí mỗi giờ cho GPU tương đương V100 khoảng 0,40 đô la, tiết kiệm đáng kể
Có thể tinh chỉnh mô hình cơ bản đã được đào tạo trước để hoàn thành các nhiệm vụ cụ thể
Cung cấp mô hình cơ bản phi tập trung, chia sẻ toàn cầu
Aethir chuyên cung cấp GPU doanh nghiệp, tập trung vào các lĩnh vực tính toán chuyên sâu như AI, ML, trò chơi đám mây. Các container trong mạng đóng vai trò là điểm cuối ảo để thực thi các ứng dụng đám mây, mang lại trải nghiệm độ trễ thấp.
Điểm chính:
Mở rộng dịch vụ điện thoại đám mây, hợp tác với APhone để ra mắt điện thoại thông minh đám mây phi tập trung
Thiết lập hợp tác rộng rãi với các công ty lớn Web2 như NVIDIA
Hợp tác với các dự án Web3 như CARV, Magic Eden
Phala Network đóng vai trò là lớp thực thi cho giải pháp AI Web3. Chuỗi khối của nó là giải pháp điện toán đám mây không cần tin cậy, xử lý các vấn đề về quyền riêng tư thông qua môi trường thực thi đáng tin cậy (TEE).
Điểm chính:
Đóng vai trò là giao thức đồng xử lý tính toán có thể xác minh, giúp các tác nhân AI truy cập tài nguyên trên chuỗi.
Hợp đồng đại lý AI có thể nhận được các mô hình ngôn ngữ hàng đầu như OpenAI thông qua Redpill
Tương lai sẽ bao gồm các hệ thống chứng minh đa dạng như zk-proofs, MPC, FHE.
Tương lai sẽ hỗ trợ GPU TEE như H100, nâng cao khả năng tính toán
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|------------|------------------|---------------------|--------|--------------|---------|
| Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Điểm kinh doanh | Đồ họa và AI | Điện toán đám mây, đồ họa và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi |
| Loại nhiệm vụ AI | Suy diễn | Đào tạo và suy diễn | Đào tạo và suy diễn | Đào tạo | Đào tạo | Thực hiện |
| Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi |
| Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot|
| Quyền riêng tư dữ liệu | Mã hóa và băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE |
| Chi phí làm việc | 0.5-5%/công việc | 20% USDC, 4% AKT | 2% USDC, 0.25% dự trữ | Chi phí thấp | 20%/phiên | Tương ứng với việc đặt cọc |
| An toàn | Chứng minh render | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng render | Kế thừa từ chuỗi trung gian|
| Chứng nhận hoàn thành | - | - | Chứng nhận khóa thời gian | Chứng nhận học tập | Chứng nhận công việc kết xuất | Chứng nhận TEE |
| Đảm bảo chất lượng | Tranh chấp | - | - | Xác minh và báo cáo | Kiểm tra nút | Chứng minh từ xa |
| Cụm GPU | Không | Có | Có | Có | Có | Không |
Tầm quan trọng
Tính khả dụng của cụm và tính toán song song
Khung tính toán phân tán thực hiện cụm GPU, cải thiện hiệu suất huấn luyện và khả năng mở rộng. Huấn luyện các mô hình AI phức tạp cần sức mạnh tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Ví dụ, mô hình GPT-4 của OpenAI có hơn 1,8 triệu tỷ tham số, mất thời gian 3-4 tháng, sử dụng khoảng 25.000 GPU Nvidia A100.
Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net hợp tác với các dự án khác, đã triển khai hơn 3,800 cụm trong Q1. Render mặc dù không hỗ trợ cụm, nhưng sẽ phân tách một khung hình để xử lý đồng thời trên nhiều nút. Phala hỗ trợ cụm hóa các bộ xử lý CPU.
Khung tập hợp rất quan trọng đối với mạng quy trình AI, nhưng số lượng và loại GPU tập hợp đáp ứng nhu cầu của các nhà phát triển lại là một vấn đề khác.
Bảo mật dữ liệu
Phát triển mô hình AI cần một lượng lớn tập dữ liệu, có thể liên quan đến thông tin nhạy cảm. Samsung đã cấm sử dụng ChatGPT vì lo ngại về quyền riêng tư, việc rò rỉ 38TB dữ liệu của Microsoft càng làm nổi bật tầm quan trọng của an toàn AI. Các phương pháp bảo mật dữ liệu khác nhau rất quan trọng đối với việc trả lại quyền cho nhà cung cấp dữ liệu.
Hầu hết các dự án sử dụng một loại mã hóa dữ liệu để bảo vệ quyền riêng tư. Render sử dụng mã hóa và băm, io.net và Gensyn áp dụng mã hóa dữ liệu, Akash sử dụng xác thực mTLS.
io.net hợp tác với Mind Network ra mắt mã hóa toàn phần (FHE), cho phép xử lý dữ liệu mã hóa mà không cần giải mã. Điều này bảo vệ quyền riêng tư tốt hơn so với các công nghệ mã hóa hiện có.
Phala Network giới thiệu môi trường thực thi đáng tin cậy ( TEE ), ngăn chặn việc truy cập hoặc sửa đổi dữ liệu từ bên ngoài. Nó cũng kết hợp zk-proofs cho việc tích hợp RiscZero zkVM.
Chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Do dịch vụ rộng, chất lượng cuối cùng có thể không đáp ứng tiêu chuẩn của người dùng. Hoàn thành chứng nhận cho thấy GPU thực sự được sử dụng cho dịch vụ cần thiết, kiểm tra chất lượng có lợi cho người dùng.
Gensyn và Aethir hoàn thành chứng minh, io.net chứng minh hiệu suất GPU được tận dụng đầy đủ không có vấn đề. Gensyn và Aethir tiến hành kiểm tra chất lượng. Gensyn sử dụng người xác nhận chạy lại một phần chứng minh, người báo cáo kiểm tra lại. Aethir sử dụng điểm kiểm tra để đánh giá chất lượng dịch vụ, phạt dịch vụ không đạt tiêu chuẩn. Render đề xuất quy trình giải quyết tranh chấp, hội đồng xem xét có thể cắt giảm các nút vấn đề. Phala tạo ra chứng minh TEE, đảm bảo đại lý AI thực hiện các thao tác trên chuỗi.
Việc huấn luyện mô hình AI cần GPU hàng đầu như Nvidia A100 và H100. Hiệu suất suy diễn của H100 gấp 4 lần A100, trở thành lựa chọn hàng đầu, đặc biệt là đối với các công ty lớn.
Thị trường GPU phi tập trung phải cạnh tranh với Web2, không chỉ cần giá thấp mà còn phải đáp ứng nhu cầu thực tế. Năm 2023, Nvidia đã giao 500.000 chiếc H100 cho các công ty công nghệ lớn, đạt được chi phí phần cứng tương đương cao. Việc xem xét số lượng phần cứng có thể được giới thiệu với chi phí thấp cho những dự án này là rất quan trọng.
Các dự án cung cấp khả năng tính toán khác nhau. Akash chỉ có hơn 150 H100 và A100, io.net và Aethir có hơn 2000 cái. Mô hình LLM được tiền huấn luyện thường cần từ 248 đến hơn 2000 cụm GPU, hai dự án sau phù hợp hơn cho tính toán mô hình lớn.
Hiện tại, chi phí dịch vụ GPU phi tập trung đã thấp hơn nhiều so với dịch vụ tập trung. Gensyn và Aethir tuyên bố phần cứng cấp A100 có giá dưới 1 đô la mỗi giờ, nhưng vẫn cần thời gian để xác minh.
Mặc dù cụm GPU kết nối mạng có nhiều GPU và chi phí thấp, nhưng bộ nhớ bị hạn chế so với GPU kết nối NVLink. NVLink hỗ trợ giao tiếp trực tiếp giữa các GPU, phù hợp cho các LLM có nhiều tham số và tập dữ liệu lớn.
Mặc dù vậy, mạng GPU phi tập trung vẫn cung cấp khả năng tính toán mạnh mẽ và khả năng mở rộng cho nhu cầu tải động hoặc người dùng cần tính linh hoạt, tạo cơ hội để xây dựng nhiều trường hợp sử dụng AI hơn.
cung cấp GPU/CPU tiêu dùng
CPU cũng rất quan trọng trong việc huấn luyện mô hình AI, được sử dụng cho việc tiền xử lý dữ liệu đến quản lý bộ nhớ. GPU cho người tiêu dùng có thể được sử dụng để tinh chỉnh mô hình đã được huấn luyện trước hoặc huấn luyện quy mô nhỏ.
Xem xét rằng hơn 85% người tiêu dùng GPU không sử dụng, các dự án như Render, Akash và io.net cũng phục vụ cho phần thị trường này. Điều này cho phép họ tập trung vào tính toán mật độ lớn quy mô lớn, kết xuất quy mô nhỏ đa năng hoặc kết hợp cả hai.
Kết luận
Lĩnh vực DePIN AI vẫn còn mới, đối mặt với nhiều thách thức. Ví dụ, io.net từng bị cáo buộc làm giả số lượng GPU, sau đó đã giải quyết thông qua chứng minh công việc.
Mặc dù vậy, số lượng nhiệm vụ và phần cứng thực hiện trên các mạng này đã tăng đáng kể, làm nổi bật nhu cầu gia tăng đối với các sản phẩm thay thế cho nhà cung cấp đám mây Web2. Đồng thời, sự gia tăng của các nhà cung cấp phần cứng cho thấy nguồn cung trước đó chưa được khai thác đầy đủ. Điều này chứng minh sự phù hợp của thị trường sản phẩm trong mạng AI DePIN, giải quyết hiệu quả các thách thức về nhu cầu và cung ứng.
Nhìn về tương lai, AI dự kiến sẽ trở thành một thị trường trị giá hàng nghìn tỷ đô la đang phát triển mạnh mẽ, và các mạng GPU phân tán này sẽ đóng vai trò quan trọng trong việc cung cấp các giải pháp tính toán tiết kiệm chi phí cho các nhà phát triển. Bằng cách không ngừng thu hẹp khoảng cách giữa nhu cầu và nguồn cung, các mạng này sẽ đóng góp đáng kể vào bối cảnh tương lai của AI và cơ sở hạ tầng tính toán.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
11 thích
Phần thưởng
11
4
Chia sẻ
Bình luận
0/400
DecentralizeMe
· 07-24 18:34
Cái gì de-pin còn không bằng làm dự án poi.
Xem bản gốcTrả lời0
ContractCollector
· 07-24 18:33
Phi tập trung才是王道啊
Xem bản gốcTrả lời0
CoffeeNFTs
· 07-24 18:10
Trước có Amazon, sau có GPT, ai hiểu được ván cờ lớn GPU này?
Mạng DePIN AI: Tính toán GPU phân tán hỗ trợ sự phát triển của AI
Sự giao thoa giữa AI và DePIN: Sự trỗi dậy của mạng lưới tính toán phân tán
Kể từ năm 2023, AI và DePIN đã trở thành xu hướng phổ biến trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này tập trung vào lĩnh vực giao thoa của cả hai, khám phá sự phát triển của các giao thức liên quan.
Trong công nghệ AI, mạng DePIN cung cấp tính thực tiễn cho AI thông qua tài nguyên tính toán. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu hụt GPU, khiến các nhà phát triển khác khó khăn trong việc có đủ GPU để tính toán. Điều này thường dẫn đến việc các nhà phát triển chọn nhà cung cấp đám mây tập trung, nhưng do hợp đồng phần cứng dài hạn không đủ linh hoạt nên hiệu suất thấp.
DePIN cung cấp giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, khuyến khích đóng góp tài nguyên thông qua phần thưởng token. DePIN trong lĩnh vực AI cộng đồng hóa tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, cung cấp nguồn cung cấp đồng nhất cho người dùng cần truy cập phần cứng. Điều này không chỉ mang lại cho các nhà phát triển khả năng truy cập tùy chỉnh và theo nhu cầu, mà còn mang lại thu nhập bổ sung cho các chủ sở hữu GPU.
Thị trường hiện có nhiều mạng AI DePIN, bài viết này sẽ khám phá vai trò, mục tiêu và thành tựu của từng giao thức, nhằm hiểu rõ sự khác biệt giữa chúng.
Tóm tắt mạng DePIN AI
Render là tiên phong trong mạng P2P cung cấp khả năng tính toán GPU, ban đầu tập trung vào việc tạo nội dung và sau đó mở rộng sang các nhiệm vụ tính toán AI.
Điểm chính:
Akash được định vị là một "siêu đám mây" thay thế hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng các công cụ thân thiện với nhà phát triển như nền tảng container và các nút tính toán được quản lý bởi Kubernetes, có thể triển khai phần mềm một cách liền mạch qua các môi trường.
Điểm chính:
io.net cung cấp truy cập vào cụm đám mây GPU phân tán, đặc biệt dành cho các trường hợp sử dụng AI và ML. Tập hợp GPU từ các trung tâm dữ liệu, thợ đào tiền điện tử và nhiều lĩnh vực khác.
Điểm chính:
Gensyn cung cấp khả năng GPU tập trung vào tính toán máy học và học sâu. Được cho là thực hiện cơ chế xác minh hiệu quả hơn thông qua các khái niệm như chứng minh bằng học.
Điểm chính:
Aethir chuyên cung cấp GPU doanh nghiệp, tập trung vào các lĩnh vực tính toán chuyên sâu như AI, ML, trò chơi đám mây. Các container trong mạng đóng vai trò là điểm cuối ảo để thực thi các ứng dụng đám mây, mang lại trải nghiệm độ trễ thấp.
Điểm chính:
Phala Network đóng vai trò là lớp thực thi cho giải pháp AI Web3. Chuỗi khối của nó là giải pháp điện toán đám mây không cần tin cậy, xử lý các vấn đề về quyền riêng tư thông qua môi trường thực thi đáng tin cậy (TEE).
Điểm chính:
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|------------|------------------|---------------------|--------|--------------|---------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Điểm kinh doanh | Đồ họa và AI | Điện toán đám mây, đồ họa và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Đào tạo và suy diễn | Đào tạo và suy diễn | Đào tạo | Đào tạo | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot| | Quyền riêng tư dữ liệu | Mã hóa và băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí làm việc | 0.5-5%/công việc | 20% USDC, 4% AKT | 2% USDC, 0.25% dự trữ | Chi phí thấp | 20%/phiên | Tương ứng với việc đặt cọc | | An toàn | Chứng minh render | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng render | Kế thừa từ chuỗi trung gian| | Chứng nhận hoàn thành | - | - | Chứng nhận khóa thời gian | Chứng nhận học tập | Chứng nhận công việc kết xuất | Chứng nhận TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Xác minh và báo cáo | Kiểm tra nút | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |
Tầm quan trọng
Tính khả dụng của cụm và tính toán song song
Khung tính toán phân tán thực hiện cụm GPU, cải thiện hiệu suất huấn luyện và khả năng mở rộng. Huấn luyện các mô hình AI phức tạp cần sức mạnh tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Ví dụ, mô hình GPT-4 của OpenAI có hơn 1,8 triệu tỷ tham số, mất thời gian 3-4 tháng, sử dụng khoảng 25.000 GPU Nvidia A100.
Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net hợp tác với các dự án khác, đã triển khai hơn 3,800 cụm trong Q1. Render mặc dù không hỗ trợ cụm, nhưng sẽ phân tách một khung hình để xử lý đồng thời trên nhiều nút. Phala hỗ trợ cụm hóa các bộ xử lý CPU.
Khung tập hợp rất quan trọng đối với mạng quy trình AI, nhưng số lượng và loại GPU tập hợp đáp ứng nhu cầu của các nhà phát triển lại là một vấn đề khác.
Bảo mật dữ liệu
Phát triển mô hình AI cần một lượng lớn tập dữ liệu, có thể liên quan đến thông tin nhạy cảm. Samsung đã cấm sử dụng ChatGPT vì lo ngại về quyền riêng tư, việc rò rỉ 38TB dữ liệu của Microsoft càng làm nổi bật tầm quan trọng của an toàn AI. Các phương pháp bảo mật dữ liệu khác nhau rất quan trọng đối với việc trả lại quyền cho nhà cung cấp dữ liệu.
Hầu hết các dự án sử dụng một loại mã hóa dữ liệu để bảo vệ quyền riêng tư. Render sử dụng mã hóa và băm, io.net và Gensyn áp dụng mã hóa dữ liệu, Akash sử dụng xác thực mTLS.
io.net hợp tác với Mind Network ra mắt mã hóa toàn phần (FHE), cho phép xử lý dữ liệu mã hóa mà không cần giải mã. Điều này bảo vệ quyền riêng tư tốt hơn so với các công nghệ mã hóa hiện có.
Phala Network giới thiệu môi trường thực thi đáng tin cậy ( TEE ), ngăn chặn việc truy cập hoặc sửa đổi dữ liệu từ bên ngoài. Nó cũng kết hợp zk-proofs cho việc tích hợp RiscZero zkVM.
Chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Do dịch vụ rộng, chất lượng cuối cùng có thể không đáp ứng tiêu chuẩn của người dùng. Hoàn thành chứng nhận cho thấy GPU thực sự được sử dụng cho dịch vụ cần thiết, kiểm tra chất lượng có lợi cho người dùng.
Gensyn và Aethir hoàn thành chứng minh, io.net chứng minh hiệu suất GPU được tận dụng đầy đủ không có vấn đề. Gensyn và Aethir tiến hành kiểm tra chất lượng. Gensyn sử dụng người xác nhận chạy lại một phần chứng minh, người báo cáo kiểm tra lại. Aethir sử dụng điểm kiểm tra để đánh giá chất lượng dịch vụ, phạt dịch vụ không đạt tiêu chuẩn. Render đề xuất quy trình giải quyết tranh chấp, hội đồng xem xét có thể cắt giảm các nút vấn đề. Phala tạo ra chứng minh TEE, đảm bảo đại lý AI thực hiện các thao tác trên chuỗi.
Dữ liệu thống kê phần cứng
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100| - | 157 | 2330 | - | 2000+ | - | | Chi phí H100/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ( dự kiến ) | $0.33 ( dự kiến ) | - |
Yêu cầu về GPU hiệu suất cao
Việc huấn luyện mô hình AI cần GPU hàng đầu như Nvidia A100 và H100. Hiệu suất suy diễn của H100 gấp 4 lần A100, trở thành lựa chọn hàng đầu, đặc biệt là đối với các công ty lớn.
Thị trường GPU phi tập trung phải cạnh tranh với Web2, không chỉ cần giá thấp mà còn phải đáp ứng nhu cầu thực tế. Năm 2023, Nvidia đã giao 500.000 chiếc H100 cho các công ty công nghệ lớn, đạt được chi phí phần cứng tương đương cao. Việc xem xét số lượng phần cứng có thể được giới thiệu với chi phí thấp cho những dự án này là rất quan trọng.
Các dự án cung cấp khả năng tính toán khác nhau. Akash chỉ có hơn 150 H100 và A100, io.net và Aethir có hơn 2000 cái. Mô hình LLM được tiền huấn luyện thường cần từ 248 đến hơn 2000 cụm GPU, hai dự án sau phù hợp hơn cho tính toán mô hình lớn.
Hiện tại, chi phí dịch vụ GPU phi tập trung đã thấp hơn nhiều so với dịch vụ tập trung. Gensyn và Aethir tuyên bố phần cứng cấp A100 có giá dưới 1 đô la mỗi giờ, nhưng vẫn cần thời gian để xác minh.
Mặc dù cụm GPU kết nối mạng có nhiều GPU và chi phí thấp, nhưng bộ nhớ bị hạn chế so với GPU kết nối NVLink. NVLink hỗ trợ giao tiếp trực tiếp giữa các GPU, phù hợp cho các LLM có nhiều tham số và tập dữ liệu lớn.
Mặc dù vậy, mạng GPU phi tập trung vẫn cung cấp khả năng tính toán mạnh mẽ và khả năng mở rộng cho nhu cầu tải động hoặc người dùng cần tính linh hoạt, tạo cơ hội để xây dựng nhiều trường hợp sử dụng AI hơn.
cung cấp GPU/CPU tiêu dùng
CPU cũng rất quan trọng trong việc huấn luyện mô hình AI, được sử dụng cho việc tiền xử lý dữ liệu đến quản lý bộ nhớ. GPU cho người tiêu dùng có thể được sử dụng để tinh chỉnh mô hình đã được huấn luyện trước hoặc huấn luyện quy mô nhỏ.
Xem xét rằng hơn 85% người tiêu dùng GPU không sử dụng, các dự án như Render, Akash và io.net cũng phục vụ cho phần thị trường này. Điều này cho phép họ tập trung vào tính toán mật độ lớn quy mô lớn, kết xuất quy mô nhỏ đa năng hoặc kết hợp cả hai.
Kết luận
Lĩnh vực DePIN AI vẫn còn mới, đối mặt với nhiều thách thức. Ví dụ, io.net từng bị cáo buộc làm giả số lượng GPU, sau đó đã giải quyết thông qua chứng minh công việc.
Mặc dù vậy, số lượng nhiệm vụ và phần cứng thực hiện trên các mạng này đã tăng đáng kể, làm nổi bật nhu cầu gia tăng đối với các sản phẩm thay thế cho nhà cung cấp đám mây Web2. Đồng thời, sự gia tăng của các nhà cung cấp phần cứng cho thấy nguồn cung trước đó chưa được khai thác đầy đủ. Điều này chứng minh sự phù hợp của thị trường sản phẩm trong mạng AI DePIN, giải quyết hiệu quả các thách thức về nhu cầu và cung ứng.
Nhìn về tương lai, AI dự kiến sẽ trở thành một thị trường trị giá hàng nghìn tỷ đô la đang phát triển mạnh mẽ, và các mạng GPU phân tán này sẽ đóng vai trò quan trọng trong việc cung cấp các giải pháp tính toán tiết kiệm chi phí cho các nhà phát triển. Bằng cách không ngừng thu hẹp khoảng cách giữa nhu cầu và nguồn cung, các mạng này sẽ đóng góp đáng kể vào bối cảnh tương lai của AI và cơ sở hạ tầng tính toán.