منذ عام 2023، أصبحت AI وDePIN اتجاهات شائعة في مجال Web3، وبلغت قيمتها السوقية 30 مليار دولار و23 مليار دولار على التوالي. ستستكشف هذه المقالة تقاطع كلاهما، وتدرس تطور البروتوكولات في هذا المجال.
في تقنية AI، يوفر شبكة DePIN الفائدة لـ AI من خلال الموارد الحاسوبية. أدى تطور الشركات التقنية الكبرى إلى نقص في وحدات معالجة الرسوميات (GPU)، مما جعل من الصعب على المطورين الآخرين الحصول على ما يكفي من وحدات معالجة الرسوميات للعمليات الحسابية. تقدم DePIN بديلاً أكثر مرونة وفعالية من حيث التكلفة، باستخدام مكافآت الرموز لتحفيز المساهمات في الموارد التي تتوافق مع أهداف الشبكة.
يعمل AI DePIN على جمع موارد GPU من مالكيها الأفراد إلى مراكز البيانات، لتشكيل إمداد موحد للمستخدمين الذين يحتاجون إلى الوصول إلى الأجهزة. لا يوفر ذلك فقط للمطورين قابلية التخصيص والوصول عند الطلب، بل يوفر أيضًا دخلًا إضافيًا لمالكي GPU.
Render هو رائد شبكة P2P يوفر قدرة حساب GPU، يركز على تقديم الرسوميات لإنشاء المحتوى، ثم توسع ليشمل المهام الحسابية من حقول الانعكاس العصبي إلى الذكاء الاصطناعي التوليدي.
المميزات:
تأسست من قبل شركة OTOY للتصوير السحابي الحائزة على جائزة الأوسكار.
تم استخدام شبكة GPU من قبل شركات كبيرة في صناعة الترفيه مثل باراماونت بيكتشرز وPUBG
التعاون مع Stability AI و Endeavor، دمج نماذج الذكاء الاصطناعي مع سير عمل عرض المحتوى ثلاثي الأبعاد
الموافقة على عدة عملاء حوسبة، ودمج المزيد من شبكات DePIN GPU
أكاش
يتم تحديد Akash كبديل "سوبر كلاود" لدعم التخزين والحوسبة باستخدام GPU وCPU. من خلال استخدام منصة الحاويات والعقد الحاسوبية المدارة بواسطة Kubernetes، يمكن نشر البرامج عبر البيئات بسلاسة، وتشغيل أي تطبيق سحابي أصلي.
الميزات:
للمهام الحسابية الواسعة من الحوسبة العامة إلى استضافة الشبكة
AkashML يتيح تشغيل أكثر من 15,000 نموذج على Hugging Face
استضافت روبوت الدردشة LLM الخاص بـ Mistral AI وتطبيقات نموذج SDXL الخاص بـ Stability AI وغيرها
منصة بناء الميتافيرس، ونشر الذكاء الاصطناعي، والتعلم الفيدرالي تستفيد من Supercloud
io.net
يوفر io.net الوصول إلى مجموعة سحابية موزعة من وحدات معالجة الرسومات، مخصصة لحالات استخدام الذكاء الاصطناعي وتعلم الآلة. إنه يجمع موارد وحدات معالجة الرسومات من مراكز البيانات وعمال المناجم المشفرين وشبكات اللامركزية الأخرى.
النقاط البارزة:
IO-SDK متوافق مع أطر مثل PyTorch و Tensorflow، حيث يمكن للهيكل متعدد الطبقات التوسع ديناميكيًا وفقًا لمتطلبات الحساب.
يدعم إنشاء 3 أنواع مختلفة من الكتل، ويمكن تشغيلها في غضون دقيقتين
التعاون مع Render و Filecoin و Aethir و Exabits لدمج موارد GPU
جينسين
تقدم Gensyn قدرات الحوسبة GPU التي تركز على التعلم الآلي والتعلم العميق. وتدعي أنها حققت آلية تحقق أكثر كفاءة من خلال مفاهيم مثل إثبات التعلم، بروتوكول تحديد المواقع الدقيقة القائم على الرسوم البيانية، وألعاب الحوافز المرتبطة بمزودي الحوسبة من خلال التخزين والخصم.
الميزات:
من المتوقع أن تكون تكلفة ساعة واحدة من GPU المكافئ V100 حوالي 0.40 دولار، مما يوفر تكلفة كبيرة
يمكن ضبط النموذج الأساسي المدرب مسبقًا لإكمال مهام أكثر تحديدًا
هذه النماذج الأساسية ستكون اللامركزية، مملوكة عالميًا، وستوفر ميزات إضافية
أثير
Aethir متخصص في تشغيل وحدات معالجة الرسومات الخاصة بالشركات، ويركز على المجالات التي تتطلب حسابات كثيفة، خاصة في الذكاء الاصطناعي، وتعلم الآلة، وألعاب السحابة. تعمل الحاويات في شبكته كنقاط نهاية افتراضية لتنفيذ التطبيقات المستندة إلى السحابة، مما ينقل أحمال العمل من الأجهزة المحلية إلى الحاويات، لتحقيق تجربة ذات زمن استجابة منخفض.
التميز:
توسيع خدمات الهاتف السحابي، بالتعاون مع APhone لإطلاق هاتف ذكي سحابي لامركزي
إقامة شراكات واسعة مع شركات Web2 الكبرى مثل NVIDIA وSuper Micro وHPE
في مجال Web3 مع العديد من الشركاء مثل CARV و Magic Eden و Sequence
شبكة فالا
تعمل شبكة فالا كطبقة تنفيذية لحلول الذكاء الاصطناعي Web3. تعتبر سلسلة الكتل الخاصة بها حلاً للحوسبة السحابية غير الموثوق بها، تم تصميمها باستخدام بيئة التنفيذ الموثوقة (TEE) لمعالجة مشاكل الخصوصية.
الميزات:
تعمل كبرتوكول معالج مساعد قابل للتحقق، مما يمكّن وكلاء الذكاء الاصطناعي من استخدام الموارد على السلسلة
يمكن الحصول على نماذج اللغة الكبيرة الرائدة مثل OpenAI و Llama من خلال عقود الوكلاء بالذكاء الاصطناعي Redpill
ستشمل المستقبل أنظمة إثبات متعددة مثل zk-proofs، الحوسبة متعددة الأطراف، والتشفير المتجانس بالكامل.
تخطط لدعم معالجات الرسوميات TEE مثل H100 وغيرها، لتعزيز القدرة الحاسوبية
مقارنة المشاريع
| | رندر | أكاش | io.net | جينسين | أثير | فالا |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| الأجهزة | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية |
| التركيز على الأعمال | عرض الرسوميات وAI | الحوسبة السحابية، العرض وAI | AI | AI | الذكاء الاصطناعي، الألعاب السحابية والاتصالات | تنفيذ AI على السلسلة |
| نوع مهمة AI | استدلال | كلاهما | كلاهما | تدريب | تدريب | تنفيذ |
| تسعير العمل | تسعير قائم على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصات | حساب الحقوق |
| بلوك تشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت |
| خصوصية البيانات | التشفير&التجزئة | تحقق هوية mTLS | تشفير البيانات | رسم آمن | تشفير | TEE |
| تكاليف العمل | 0.5-5% لكل عمل | 20% USDC، 4% AKT | 2% USDC، 0.25% رسوم احتياطي | تكاليف منخفضة | 20% لكل جلسة | تتناسب مع مبلغ الرهن |
| الأمان | إثبات السند | إثبات الملكية | إثبات الحساب | إثبات الملكية | إثبات القدرة على السند | وراثة من سلسلة الوسيط |
| إثبات الإنجاز | - | - | إثبات القفل الزمني | إثبات التعلم | إثبات العمل بالعرض | إثبات TEE |
| ضمان الجودة | نزاع | - | - | المدققون والمبلغون | عقدة الفحص | إثبات عن بُعد |
| مجموعة GPU | لا | نعم | نعم | نعم | نعم | لا |
إطار الحوسبة الموزعة حقق تجميع وحدات معالجة الرسوميات، مما يوفر تدريبًا أكثر كفاءة، وفي الوقت نفسه يعزز قابلية التوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قدرة حسابية قوية، وغالبًا ما يتعين الاعتماد على الحوسبة الموزعة لتلبية الاحتياجات. على سبيل المثال، يحتوي نموذج GPT-4 من OpenAI على أكثر من 1.8 تريليون معلمة، وتم تدريبه خلال 3-4 أشهر باستخدام حوالي 25,000 وحدة معالجة رسومات Nvidia A100 في 128 مجموعة.
تجميع معظم المشاريع الرئيسية الآن تتضمن تجميعات لتحقيق الحوسبة المتوازية. تعمل io.net بالتعاون مع مشاريع أخرى على دمج المزيد من وحدات معالجة الرسومات في شبكتها، وقد تم نشر أكثر من 3,800 مجموعة في الربع الأول من عام 24. على الرغم من أن Render لا يدعم التجميع، إلا أن طريقة عمله مشابهة، حيث يقوم بتقسيم الإطار الفردي إلى عدة عقد لمعالجتها في نفس الوقت. تدعم Phala حاليًا وحدات المعالجة المركزية فقط، ولكنها تسمح بتجميع وحدات المعالجة المركزية.
خصوصية البيانات
تتطلب تطوير نماذج الذكاء الاصطناعي استخدام مجموعات بيانات كبيرة، وقد تحتوي هذه المجموعات على معلومات حساسة. لذلك، من الضروري اتخاذ تدابير أمنية كافية لحماية خصوصية البيانات.
تستخدم معظم المشاريع نوعًا من تشفير البيانات لحماية خصوصية البيانات. يستخدم Render التشفير ومعالجة التجزئة عند إصدار نتائج الرندر، بينما تعتمد io.net وGensyn على تشفير البيانات، وتستخدم Akash مصادقة mTLS.
أطلقت io.net مؤخرًا تعاونًا مع شبكة Mind لإصدار تشفير متجانس بالكامل (FHE)، مما يسمح بمعالجة البيانات المشفرة دون الحاجة إلى فك تشفيرها أولاً. قدمت شبكة Phala بيئة تنفيذ موثوقة (TEE)، من خلال آلية العزل لمنع العمليات الخارجية من الوصول إلى البيانات أو تعديلها.
إثبات إتمام الحساب وفحص الجودة
نظرًا لنطاق الخدمة الواسع، من رسم الرسوميات إلى حسابات الذكاء الاصطناعي، قد لا تتماشى الجودة النهائية مع معايير المستخدمين. إن إكمال الشهادات وفحص الجودة مفيد للمستخدمين.
تقوم Gensyn و Aethir بإنشاء إثبات بعد انتهاء الحساب، بينما يشير إثبات io.net إلى أن أداء GPU المستأجر قد تم استغلاله بالكامل. ستقوم Gensyn و Aethir بإجراء فحص جودة للحسابات المكتملة. توصي Render باستخدام عملية حل النزاعات، إذا اكتشف مجلس المراجعة وجود مشكلة في العقدة، سيتم تخفيض تلك العقدة. بعد الانتهاء من Phala، سيتم إنشاء إثبات TEE، لضمان تنفيذ وكلاء الذكاء الاصطناعي للعمليات المطلوبة على السلسلة.
تتطلب تدريب نماذج الذكاء الاصطناعي وحدات معالجة الرسوميات (GPU) ذات الأداء الأمثل، مثل A100 و H100 من Nvidia. إن أداء الاستدلال لـ H100 أسرع 4 مرات من A100، وقد أصبحت الخيار المفضل، خاصة بالنسبة للشركات الكبيرة التي تقوم بتدريب نماذج اللغة الكبيرة الخاصة بها.
يجب على مقدمي خدمات سوق GPU اللامركزية التنافس مع نظرائهم في Web2، ليس فقط من خلال تقديم أسعار أقل، ولكن أيضًا من خلال تلبية الطلب الفعلي في السوق. نظرًا لصعوبة الحصول على أجهزة مماثلة، فإن عدد الأجهزة التي يمكن لهذه المشاريع إدخالها إلى الشبكة بتكلفة منخفضة يعد أمرًا حيويًا لتوسيع الخدمات.
أكاش لديها فقط أكثر من 150 وحدة H100 و A100، بينما حصلت io.net و Aethir على أكثر من 2000 وحدة لكل منهما. عادةً، يتطلب تدريب نموذج LLM أو نموذج توليدي من الصفر ما لا يقل عن 248 إلى أكثر من 2000 GPU في الكلاستر، لذلك فإن المشروعين الأخيرين أكثر ملاءمة لحساب النماذج الكبيرة.
تكاليف خدمات GPU اللامركزية هذه في السوق حاليا أقل بكثير من خدمات GPU المركزية. تدعي Gensyn و Aethir أنه يمكن استئجار أجهزة تعادل A100 بأقل من 1 دولار في الساعة، لكن هذا لا يزال بحاجة إلى إثبات مع مرور الوقت.
تتكون مجموعة GPUs المتصلة بالشبكة من عدد كبير من وحدات معالجة الرسوميات، وتكون تكلفة كل ساعة منخفضة، ولكن ذاكرتها محدودة مقارنةً بوحدات معالجة الرسوميات المتصلة بـ NVLink. يدعم NVLink الاتصال المباشر بين عدة وحدات معالجة الرسوميات دون الحاجة لنقل البيانات بين وحدة المعالجة المركزية ووحدات معالجة الرسوميات، مما يحقق عرض نطاق ترددي عالٍ وزمن استجابة منخفض.
على الرغم من ذلك، بالنسبة لأولئك الذين لديهم احتياجات عمل ديناميكية أو يحتاجون إلى المرونة وقدرة توزيع العمل عبر عدة عقد، لا يزال بإمكان شبكة GPU اللامركزية توفير قوة حسابية قوية وقابلية للتوسع لمهام الحساب الموزعة.
توفير وحدات معالجة الرسوميات/وحدات المعالجة المركزية من الفئة الاستهلاكية
على الرغم من أن وحدة معالجة الرسوميات (GPU) هي الوحدة الرئيسية المطلوبة للرندر والحساب، إلا أن وحدة المعالجة المركزية (CPU) تلعب أيضًا دورًا مهمًا في تدريب نماذج الذكاء الاصطناعي. يمكن أيضًا استخدام وحدات معالجة الرسوميات الاستهلاكية للمهام الأقل كثافة، مثل ضبط النماذج التي تم تدريبها مسبقًا أو تدريب نماذج أصغر على مجموعات بيانات أصغر.
نظرًا لأن أكثر من 85٪ من موارد GPU للمستهلكين في حالة خمول، فإن مشاريع مثل Render و Akash و io.net يمكن أن تخدم أيضًا هذه الجزء من السوق. من خلال تقديم هذه الخيارات، يمكنهم تطوير مكانة سوقهم الخاصة، والتركيز على الحوسبة الكثيفة على نطاق واسع، أو العرض الصغير الأكثر عمومية، أو مزيج بين الاثنين.
الاستنتاج
لا يزال مجال DePIN للذكاء الاصطناعي جديدًا نسبيًا، ويواجه تحدياته الخاصة. ومع ذلك، لا يزال عدد المهام والأجهزة المنفذة في هذه الشبكات اللامركزية للمعالجة الرسومية (GPU) في زيادة ملحوظة. تثبت هذه الاتجاهات توافق سوق منتجات شبكات DePIN للذكاء الاصطناعي، حيث أنها تحل بفعالية التحديات المتعلقة بالعرض والطلب.
تتجه مسارات تطوير الذكاء الاصطناعي نحو سوق مزدهر بقيمة تريليونات الدولارات. ستوفر هذه الشبكات الموزعة من وحدات معالجة الرسوميات تكلفة عالية للمطورين.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 9
أعجبني
9
4
مشاركة
تعليق
0/400
retroactive_airdrop
· 07-30 09:01
ثور شبكة بطاقة لا يزال يمكن التعدين
شاهد النسخة الأصليةرد0
0xSoulless
· 07-30 08:58
حمقى又有新地方 خداع الناس لتحقيق الربح了
شاهد النسخة الأصليةرد0
Fren_Not_Food
· 07-30 08:43
لا أعرف شيئًا آخر، فقط أسأل إذا كان بإمكان جهاز التعدين GPU شراء الانخفاض.
الدمج بين الذكاء الاصطناعي وDePIN: شبكة GPU اللامركزية تقود اتجاهات جديدة في قوة الحوسبة
تقاطع الذكاء الاصطناعي وDePIN: صعود الشبكات اللامركزية للـGPU
منذ عام 2023، أصبحت AI وDePIN اتجاهات شائعة في مجال Web3، وبلغت قيمتها السوقية 30 مليار دولار و23 مليار دولار على التوالي. ستستكشف هذه المقالة تقاطع كلاهما، وتدرس تطور البروتوكولات في هذا المجال.
في تقنية AI، يوفر شبكة DePIN الفائدة لـ AI من خلال الموارد الحاسوبية. أدى تطور الشركات التقنية الكبرى إلى نقص في وحدات معالجة الرسوميات (GPU)، مما جعل من الصعب على المطورين الآخرين الحصول على ما يكفي من وحدات معالجة الرسوميات للعمليات الحسابية. تقدم DePIN بديلاً أكثر مرونة وفعالية من حيث التكلفة، باستخدام مكافآت الرموز لتحفيز المساهمات في الموارد التي تتوافق مع أهداف الشبكة.
يعمل AI DePIN على جمع موارد GPU من مالكيها الأفراد إلى مراكز البيانات، لتشكيل إمداد موحد للمستخدمين الذين يحتاجون إلى الوصول إلى الأجهزة. لا يوفر ذلك فقط للمطورين قابلية التخصيص والوصول عند الطلب، بل يوفر أيضًا دخلًا إضافيًا لمالكي GPU.
! تقاطع الذكاء الاصطناعي و DePIN
نظرة عامة على شبكة DePIN الذكية
رندر
Render هو رائد شبكة P2P يوفر قدرة حساب GPU، يركز على تقديم الرسوميات لإنشاء المحتوى، ثم توسع ليشمل المهام الحسابية من حقول الانعكاس العصبي إلى الذكاء الاصطناعي التوليدي.
المميزات:
أكاش
يتم تحديد Akash كبديل "سوبر كلاود" لدعم التخزين والحوسبة باستخدام GPU وCPU. من خلال استخدام منصة الحاويات والعقد الحاسوبية المدارة بواسطة Kubernetes، يمكن نشر البرامج عبر البيئات بسلاسة، وتشغيل أي تطبيق سحابي أصلي.
الميزات:
io.net
يوفر io.net الوصول إلى مجموعة سحابية موزعة من وحدات معالجة الرسومات، مخصصة لحالات استخدام الذكاء الاصطناعي وتعلم الآلة. إنه يجمع موارد وحدات معالجة الرسومات من مراكز البيانات وعمال المناجم المشفرين وشبكات اللامركزية الأخرى.
النقاط البارزة:
جينسين
تقدم Gensyn قدرات الحوسبة GPU التي تركز على التعلم الآلي والتعلم العميق. وتدعي أنها حققت آلية تحقق أكثر كفاءة من خلال مفاهيم مثل إثبات التعلم، بروتوكول تحديد المواقع الدقيقة القائم على الرسوم البيانية، وألعاب الحوافز المرتبطة بمزودي الحوسبة من خلال التخزين والخصم.
الميزات:
أثير
Aethir متخصص في تشغيل وحدات معالجة الرسومات الخاصة بالشركات، ويركز على المجالات التي تتطلب حسابات كثيفة، خاصة في الذكاء الاصطناعي، وتعلم الآلة، وألعاب السحابة. تعمل الحاويات في شبكته كنقاط نهاية افتراضية لتنفيذ التطبيقات المستندة إلى السحابة، مما ينقل أحمال العمل من الأجهزة المحلية إلى الحاويات، لتحقيق تجربة ذات زمن استجابة منخفض.
التميز:
شبكة فالا
تعمل شبكة فالا كطبقة تنفيذية لحلول الذكاء الاصطناعي Web3. تعتبر سلسلة الكتل الخاصة بها حلاً للحوسبة السحابية غير الموثوق بها، تم تصميمها باستخدام بيئة التنفيذ الموثوقة (TEE) لمعالجة مشاكل الخصوصية.
الميزات:
مقارنة المشاريع
| | رندر | أكاش | io.net | جينسين | أثير | فالا | |--------|-------------|------------------|---------------------|---------|---------------|----------| | الأجهزة | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية | | التركيز على الأعمال | عرض الرسوميات وAI | الحوسبة السحابية، العرض وAI | AI | AI | الذكاء الاصطناعي، الألعاب السحابية والاتصالات | تنفيذ AI على السلسلة | | نوع مهمة AI | استدلال | كلاهما | كلاهما | تدريب | تدريب | تنفيذ | | تسعير العمل | تسعير قائم على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصات | حساب الحقوق | | بلوك تشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت | | خصوصية البيانات | التشفير&التجزئة | تحقق هوية mTLS | تشفير البيانات | رسم آمن | تشفير | TEE | | تكاليف العمل | 0.5-5% لكل عمل | 20% USDC، 4% AKT | 2% USDC، 0.25% رسوم احتياطي | تكاليف منخفضة | 20% لكل جلسة | تتناسب مع مبلغ الرهن | | الأمان | إثبات السند | إثبات الملكية | إثبات الحساب | إثبات الملكية | إثبات القدرة على السند | وراثة من سلسلة الوسيط | | إثبات الإنجاز | - | - | إثبات القفل الزمني | إثبات التعلم | إثبات العمل بالعرض | إثبات TEE | | ضمان الجودة | نزاع | - | - | المدققون والمبلغون | عقدة الفحص | إثبات عن بُعد | | مجموعة GPU | لا | نعم | نعم | نعم | نعم | لا |
! تقاطع الذكاء الاصطناعي و DePIN
الأهمية
توفر الحوسبة المجمعة والمتوازية
إطار الحوسبة الموزعة حقق تجميع وحدات معالجة الرسوميات، مما يوفر تدريبًا أكثر كفاءة، وفي الوقت نفسه يعزز قابلية التوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قدرة حسابية قوية، وغالبًا ما يتعين الاعتماد على الحوسبة الموزعة لتلبية الاحتياجات. على سبيل المثال، يحتوي نموذج GPT-4 من OpenAI على أكثر من 1.8 تريليون معلمة، وتم تدريبه خلال 3-4 أشهر باستخدام حوالي 25,000 وحدة معالجة رسومات Nvidia A100 في 128 مجموعة.
تجميع معظم المشاريع الرئيسية الآن تتضمن تجميعات لتحقيق الحوسبة المتوازية. تعمل io.net بالتعاون مع مشاريع أخرى على دمج المزيد من وحدات معالجة الرسومات في شبكتها، وقد تم نشر أكثر من 3,800 مجموعة في الربع الأول من عام 24. على الرغم من أن Render لا يدعم التجميع، إلا أن طريقة عمله مشابهة، حيث يقوم بتقسيم الإطار الفردي إلى عدة عقد لمعالجتها في نفس الوقت. تدعم Phala حاليًا وحدات المعالجة المركزية فقط، ولكنها تسمح بتجميع وحدات المعالجة المركزية.
خصوصية البيانات
تتطلب تطوير نماذج الذكاء الاصطناعي استخدام مجموعات بيانات كبيرة، وقد تحتوي هذه المجموعات على معلومات حساسة. لذلك، من الضروري اتخاذ تدابير أمنية كافية لحماية خصوصية البيانات.
تستخدم معظم المشاريع نوعًا من تشفير البيانات لحماية خصوصية البيانات. يستخدم Render التشفير ومعالجة التجزئة عند إصدار نتائج الرندر، بينما تعتمد io.net وGensyn على تشفير البيانات، وتستخدم Akash مصادقة mTLS.
أطلقت io.net مؤخرًا تعاونًا مع شبكة Mind لإصدار تشفير متجانس بالكامل (FHE)، مما يسمح بمعالجة البيانات المشفرة دون الحاجة إلى فك تشفيرها أولاً. قدمت شبكة Phala بيئة تنفيذ موثوقة (TEE)، من خلال آلية العزل لمنع العمليات الخارجية من الوصول إلى البيانات أو تعديلها.
إثبات إتمام الحساب وفحص الجودة
نظرًا لنطاق الخدمة الواسع، من رسم الرسوميات إلى حسابات الذكاء الاصطناعي، قد لا تتماشى الجودة النهائية مع معايير المستخدمين. إن إكمال الشهادات وفحص الجودة مفيد للمستخدمين.
تقوم Gensyn و Aethir بإنشاء إثبات بعد انتهاء الحساب، بينما يشير إثبات io.net إلى أن أداء GPU المستأجر قد تم استغلاله بالكامل. ستقوم Gensyn و Aethir بإجراء فحص جودة للحسابات المكتملة. توصي Render باستخدام عملية حل النزاعات، إذا اكتشف مجلس المراجعة وجود مشكلة في العقدة، سيتم تخفيض تلك العقدة. بعد الانتهاء من Phala، سيتم إنشاء إثبات TEE، لضمان تنفيذ وكلاء الذكاء الاصطناعي للعمليات المطلوبة على السلسلة.
! تقاطع الذكاء الاصطناعي و DePIN
بيانات إحصائيات الأجهزة
| | ريندر | أكاش | io.net | جينسين | إيثير | فالا | |-------------|--------|-------|--------|------------|------------|--------| | عدد وحدات معالجة الرسومات | 5600 | 384 | 38177 | - | 40000+ | - | | عدد وحدات المعالجة المركزية | 114 | 14672 | 5433 | - | - | 30000+ | | عدد H100/A100 | - | 157 | 2330 | - | 2000+ | - | | تكلفة H100/ساعة | - | $1.46 | $1.19 | - | - | - | | تكلفة A100 / الساعة | - | $1.37 | $1.50 | $0.55 ( متوقع ) | $0.33 ( متوقع ) | - |
متطلبات GPU عالية الأداء
تتطلب تدريب نماذج الذكاء الاصطناعي وحدات معالجة الرسوميات (GPU) ذات الأداء الأمثل، مثل A100 و H100 من Nvidia. إن أداء الاستدلال لـ H100 أسرع 4 مرات من A100، وقد أصبحت الخيار المفضل، خاصة بالنسبة للشركات الكبيرة التي تقوم بتدريب نماذج اللغة الكبيرة الخاصة بها.
يجب على مقدمي خدمات سوق GPU اللامركزية التنافس مع نظرائهم في Web2، ليس فقط من خلال تقديم أسعار أقل، ولكن أيضًا من خلال تلبية الطلب الفعلي في السوق. نظرًا لصعوبة الحصول على أجهزة مماثلة، فإن عدد الأجهزة التي يمكن لهذه المشاريع إدخالها إلى الشبكة بتكلفة منخفضة يعد أمرًا حيويًا لتوسيع الخدمات.
أكاش لديها فقط أكثر من 150 وحدة H100 و A100، بينما حصلت io.net و Aethir على أكثر من 2000 وحدة لكل منهما. عادةً، يتطلب تدريب نموذج LLM أو نموذج توليدي من الصفر ما لا يقل عن 248 إلى أكثر من 2000 GPU في الكلاستر، لذلك فإن المشروعين الأخيرين أكثر ملاءمة لحساب النماذج الكبيرة.
تكاليف خدمات GPU اللامركزية هذه في السوق حاليا أقل بكثير من خدمات GPU المركزية. تدعي Gensyn و Aethir أنه يمكن استئجار أجهزة تعادل A100 بأقل من 1 دولار في الساعة، لكن هذا لا يزال بحاجة إلى إثبات مع مرور الوقت.
تتكون مجموعة GPUs المتصلة بالشبكة من عدد كبير من وحدات معالجة الرسوميات، وتكون تكلفة كل ساعة منخفضة، ولكن ذاكرتها محدودة مقارنةً بوحدات معالجة الرسوميات المتصلة بـ NVLink. يدعم NVLink الاتصال المباشر بين عدة وحدات معالجة الرسوميات دون الحاجة لنقل البيانات بين وحدة المعالجة المركزية ووحدات معالجة الرسوميات، مما يحقق عرض نطاق ترددي عالٍ وزمن استجابة منخفض.
على الرغم من ذلك، بالنسبة لأولئك الذين لديهم احتياجات عمل ديناميكية أو يحتاجون إلى المرونة وقدرة توزيع العمل عبر عدة عقد، لا يزال بإمكان شبكة GPU اللامركزية توفير قوة حسابية قوية وقابلية للتوسع لمهام الحساب الموزعة.
! تقاطع الذكاء الاصطناعي و DePIN
توفير وحدات معالجة الرسوميات/وحدات المعالجة المركزية من الفئة الاستهلاكية
على الرغم من أن وحدة معالجة الرسوميات (GPU) هي الوحدة الرئيسية المطلوبة للرندر والحساب، إلا أن وحدة المعالجة المركزية (CPU) تلعب أيضًا دورًا مهمًا في تدريب نماذج الذكاء الاصطناعي. يمكن أيضًا استخدام وحدات معالجة الرسوميات الاستهلاكية للمهام الأقل كثافة، مثل ضبط النماذج التي تم تدريبها مسبقًا أو تدريب نماذج أصغر على مجموعات بيانات أصغر.
نظرًا لأن أكثر من 85٪ من موارد GPU للمستهلكين في حالة خمول، فإن مشاريع مثل Render و Akash و io.net يمكن أن تخدم أيضًا هذه الجزء من السوق. من خلال تقديم هذه الخيارات، يمكنهم تطوير مكانة سوقهم الخاصة، والتركيز على الحوسبة الكثيفة على نطاق واسع، أو العرض الصغير الأكثر عمومية، أو مزيج بين الاثنين.
الاستنتاج
لا يزال مجال DePIN للذكاء الاصطناعي جديدًا نسبيًا، ويواجه تحدياته الخاصة. ومع ذلك، لا يزال عدد المهام والأجهزة المنفذة في هذه الشبكات اللامركزية للمعالجة الرسومية (GPU) في زيادة ملحوظة. تثبت هذه الاتجاهات توافق سوق منتجات شبكات DePIN للذكاء الاصطناعي، حيث أنها تحل بفعالية التحديات المتعلقة بالعرض والطلب.
تتجه مسارات تطوير الذكاء الاصطناعي نحو سوق مزدهر بقيمة تريليونات الدولارات. ستوفر هذه الشبكات الموزعة من وحدات معالجة الرسوميات تكلفة عالية للمطورين.