دمج الذكاء الاصطناعي وويب 3 لا يمكن إيقافه: من مشاركة قوة الحوسبة إلى نمط جديد من التحفيز على البيانات

الذكاء الاصطناعي + الويب 3: الأبراج والساحات

TL; د

  1. مشاريع Web3 ذات مفهوم الذكاء الاصطناعي أصبحت أهداف جذب الأموال في السوقين الأول والثاني.

  2. تظهر الفرص المتاحة لـ Web3 في صناعة الذكاء الاصطناعي من خلال: استخدام الحوافز الموزعة لتنسيق العرض المحتمل في الذيل الطويل - عبر البيانات والتخزين والحوسبة؛ في الوقت نفسه، إنشاء نماذج مفتوحة المصدر بالإضافة إلى سوق لامركزي لوكلاء الذكاء الاصطناعي.

  3. يتم استخدام الذكاء الاصطناعي بشكل رئيسي في صناعة Web3 للتمويل على السلسلة ( المدفوعات المشفرة، التداول، تحليل البيانات ) وكذلك المساعدة في التطوير.

  4. تظهر فائدة AI + Web3 في تكامل الاثنين: من المتوقع أن تواجه Web3 مركزية AI، ومن المتوقع أن تساعد AI Web3 في كسر الحواجز.

! الذكاء الاصطناعي+Web3: الأبراج والساحات

المقدمة

على مدار العامين الماضيين، تطور الذكاء الاصطناعي كما لو تم الضغط على زر التسريع، وهذه التأثيرات المتسارعة التي أثارتها Chatgpt لم تفتح فقط عالماً جديداً من الذكاء الاصطناعي التوليدي، بل أيضاً أحدثت موجة في مجال Web3.

بدعم من مفهوم الذكاء الاصطناعي، يظهر تحسن واضح في تمويل سوق العملات المشفرة الذي يتباطأ. ووفقًا للإحصاءات، أكمل 64 مشروعًا في Web3 + AI تمويلًا في النصف الأول من عام 2024، حيث حقق نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 أعلى مبلغ تمويل قدره 100 مليون دولار في الجولة A.

سوق الثانوي أكثر ازدهارًا، حيث تشير بيانات موقع تجميع العملات المشفرة Coingecko إلى أنه في غضون أكثر من عام بقليل، وصلت القيمة السوقية الإجمالية لقطاع الذكاء الاصطناعي إلى 48.5 مليار دولار، وحجم التداول خلال 24 ساعة اقترب من 8.6 مليار دولار؛ الفوائد الناتجة عن تقدم تقنيات الذكاء الاصطناعي واضحة، حيث بعد إصدار نموذج تحويل النص إلى فيديو Sora من OpenAI، ارتفع متوسط سعر قطاع الذكاء الاصطناعي بنسبة 151%؛ كما أن تأثير الذكاء الاصطناعي يمتد أيضًا إلى أحد قطاعات جذب الأموال في العملات المشفرة وهو الميم: حيث حقق أول مفهوم لميمكوين الذكاء الاصطناعي - GOAT شهرة سريعة وحقق تقييمًا بقيمة 1.4 مليار دولار، مما ساهم في إشعال حمى ميم الذكاء الاصطناعي.

تتزايد الأبحاث والمواضيع المتعلقة بـ AI + Web3 بشكل كبير، من AI + Depin إلى AI Memecoin وصولًا إلى AI Agent و AI DAO الحالية، حيث لم يعد شعور FOMO قادرًا على مواكبة سرعة تبديل السرد الجديد.

AI+Web3، هذا التركيب الذي مليء بالأموال الساخنة، والفرص المستقبلية، والخيالات، لا بد أن يُنظر إليه على أنه زواج مرتب تم التوفيق فيه بواسطة رأس المال، ويبدو أنه من الصعب علينا التمييز تحت هذه العباءة الرائعة، هل هو ساحة المضاربين، أم هو ليلة الانفجار في الفجر؟

للإجابة على هذا السؤال، فإن التفكير الحاسم لكلا الطرفين هو: هل سيكون الوضع أفضل بوجود الآخر؟ هل يمكن الاستفادة من نمط الآخر؟ في هذه المقالة، نحاول أيضًا أن نأخذ من تجارب السابقين لننظر في هذه الصورة: كيف يمكن أن تلعب Web3 دورًا في مختلف جوانب تكنولوجيا الذكاء الاصطناعي، وما الجديد الذي يمكن أن يجلبه الذكاء الاصطناعي لـ Web3؟

الجزء 1 ما الفرص المتاحة في Web3 تحت كومة الذكاء الاصطناعي؟

قبل الخوض في هذا الموضوع، نحتاج إلى فهم تكنولوجيا نموذج الذكاء الاصطناعي الكبير:

! الذكاء الاصطناعي+Web3: الأبراج والمربعات

استخدم لغة أكثر بساطة لوصف العملية بأكملها: "النموذج الكبير" يشبه دماغ الإنسان، في المراحل المبكرة، ينتمي هذا الدماغ إلى طفل حديث الولادة، يحتاج إلى مراقبة واستيعاب كمية هائلة من المعلومات الخارجية لفهم هذا العالم، وهذه هي مرحلة "جمع البيانات"؛ نظرًا لأن أجهزة الكمبيوتر تفتقر إلى الحواس المتعددة مثل البصر والسمع لدى البشر، قبل التدريب، يجب تحويل المعلومات الضخمة غير المعلّمة من العالم الخارجي من خلال "المعالجة المسبقة" إلى تنسيق معلومات يمكن للكمبيوتر فهمه واستخدامه.

بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يمتلك القدرة على الفهم والتنبؤ، ويمكن اعتبار ذلك بمثابة عملية فهم وتعلم الطفل للعالم الخارجي تدريجياً. تعتبر معلمات النموذج مثل القدرة اللغوية التي تتعدل باستمرار خلال عملية تعلم الطفل. عندما تبدأ محتويات التعلم في التخصص، أو يحصل على ردود فعل من خلال التواصل مع الآخرين ويتم تصحيحها، يدخل ذلك في مرحلة "التعديل الدقيق" للنموذج الكبير.

عندما يكبر الأطفال تدريجياً ويتعلمون كيفية التحدث، يمكنهم فهم المعاني والتعبير عن مشاعرهم وأفكارهم في محادثات جديدة، وهذه المرحلة تشبه "الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث يمكن للنموذج توقع وتحليل المدخلات اللغوية والنصية الجديدة. يعبر الأطفال عن مشاعرهم من خلال القدرات اللغوية، ويصفون الأشياء، ويحلون مختلف المشكلات، وهذا مشابه أيضاً لتطبيق نموذج الذكاء الاصطناعي الكبير في مرحلة الاستدلال بعد إكمال التدريب واستخدامه في مجموعة من المهام المحددة، مثل تصنيف الصور، والتعرف على الصوت، وغيرها.

ووكيل الذكاء الاصطناعي أصبح أقرب إلى الشكل التالي للنموذج الكبير - قادر على تنفيذ المهام بشكل مستقل والسعي لتحقيق أهداف معقدة، ليس فقط يمتلك القدرة على التفكير، ولكن أيضًا القدرة على التذكر والتخطيط، وقادر على استخدام الأدوات والتفاعل مع العالم.

حالياً، وبالنظر إلى نقاط الألم المتعلقة بالذكاء الاصطناعي في مختلف الطبقات، فقد بدأت Web3 في تشكيل نظام بيئي متعدد الطبقات ومترابط، يغطي جميع مراحل عملية نماذج الذكاء الاصطناعي.

واحدة، الطبقة الأساسية: Airbnb للقوة الحسابية والبيانات

قوة التعدين

في الوقت الحالي، تعتبر واحدة من أعلى تكاليف الذكاء الاصطناعي هي القدرة الحاسوبية والطاقة المطلوبة لتدريب النماذج ونماذج الاستدلال.

مثال على ذلك هو أن LLAMA3 من Meta يحتاج إلى 16000 وحدة معالجة رسومية H100GPU( التي تنتجها NVIDIA، وهي وحدة معالجة رسومية متطورة مصممة خصيصًا لأحمال العمل الخاصة بالذكاء الاصطناعي والحوسبة عالية الأداء، وتستغرق 30 يومًا لإكمال التدريب. سعر النسخة ذات 80 جيجابايت يتراوح بين 30,000 إلى 40,000 دولار، مما يتطلب استثمارًا في الأجهزة الحاسوبية يتراوح بين 400 إلى 700 مليون دولار) GPU + شريحة الشبكة(، وفي الوقت نفسه، يتطلب التدريب الشهري استهلاك 1.6 مليار كيلووات ساعة، مما يعني أن تكاليف الطاقة تصل إلى حوالي 20 مليون دولار شهريًا.

بالنسبة لتخفيف ضغط قوة الحوسبة للذكاء الاصطناعي، فإنها تمثل أيضًا أحد المجالات الأولى التي تتقاطع فيها Web3 مع الذكاء الاصطناعي - DePin) شبكة البنية التحتية الفيزيائية اللامركزية( حاليًا، يعرض موقع DePin Ninja بيانات أكثر من 1400 مشروع، ومن بين المشاريع الرائدة في مشاركة قوة GPU هي io.net، Aethir، Akash، شبكة Render وغيرها.

المنطق الرئيسي هنا هو: يسمح النظام للأفراد أو الكيانات التي تمتلك موارد GPU غير المستخدمة بتقديم قدرتها الحسابية بطريقة لامركزية دون الحاجة إلى إذن، من خلال سوق عبر الإنترنت يشبه Uber أو Airbnb بين المشترين والبائعين، مما يزيد من معدل استخدام موارد GPU غير المستغلة بشكل كاف، وبالتالي يحصل المستخدمون النهائيون على موارد حسابية فعالة بتكلفة أقل؛ في نفس الوقت، تضمن آلية الرهن أنه في حالة حدوث انتهاك لآلية مراقبة الجودة أو انقطاع الشبكة، فإن مقدمي الموارد سيتعرضون لعقوبات مناسبة.

تتميز بما يلي:

  • تجميع موارد GPU غير المستخدمة: يتمثل الموردون الرئيسيون في مراكز البيانات المستقلة الصغيرة والمتوسطة، ومشغلي مناجم العملات المشفرة، وما إلى ذلك، من موارد القوة الزائدة، وآلية الإجماع هي أجهزة التعدين PoS، مثل أجهزة تعدين FileCoin وETH. حاليًا، هناك أيضًا مشاريع تهدف إلى بدء تشغيل أجهزة ذات عتبة دخول أقل، مثل exolab التي تستخدم أجهزة MacBook وiPhone وiPad المحلية لإنشاء شبكة قوة حوسبة لتشغيل نماذج كبيرة.

  • مواجهة سوق الذيل الطويل لقوة الذكاء الاصطناعي:

أ. من حيث الجانب الفني، فإن سوق القوة الحاسوبية اللامركزية أكثر ملاءمة لخطوات الاستدلال. يعتمد التدريب بشكل أكبر على القدرة على معالجة البيانات التي توفرها وحدات معالجة الرسوميات (GPU) ذات الحجم الضخم، بينما تكون متطلبات أداء GPU للاستدلال أقل نسبيًا، كما أن Aethir تركز على العمل في مجال العرض منخفض التأخير وتطبيقات الاستدلال بالذكاء الاصطناعي.

b. من منظور جانب الطلب، فإن الجهات التي تحتاج إلى قوة حوسبة متوسطة لن تقوم بتدريب نماذج كبيرة خاصة بها، بل ستختار فقط تحسين وتعديل النماذج الكبيرة القليلة الرائدة، وهذه السيناريوهات تتناسب بشكل طبيعي مع موارد الحوسبة الموزعة غير المستخدمة.

  • ملكية لامركزية: المعنى التكنولوجي للبلوكشين هو أن مالكي الموارد يحتفظون دائمًا بالتحكم في مواردهم، مما يسمح لهم بتعديلها وفقًا للاحتياجات وكسب الأرباح.

)# البيانات

البيانات هي أساس الذكاء الاصطناعي. إذا لم تكن هناك بيانات، فإن الحسابات ستكون عديمة الجدوى مثل العشب الطافي، والعلاقة بين البيانات والنموذج تشبه المقولة الشهيرة "قمامة في، قمامة خارج"، حيث تحدد كمية البيانات وجودة المدخلات جودة مخرجات النموذج النهائي. بالنسبة لتدريب نماذج الذكاء الاصطناعي الحالية، تحدد البيانات قدرة النموذج اللغوية، وقدرته على الفهم، وحتى القيم والمظهر الإنساني. في الوقت الحالي، تركز أزمة احتياجات البيانات في الذكاء الاصطناعي بشكل رئيسي على الجوانب الأربعة التالية:

  • شغف البيانات: تعتمد نماذج الذكاء الاصطناعي على كميات كبيرة من إدخال البيانات. تظهر البيانات العامة أن OpenAI قامت بتدريب GPT-4 بكمية من المعلمات تصل إلى تريليونات.

  • جودة البيانات: مع دمج الذكاء الاصطناعي في مختلف الصناعات، تطرح توقيت البيانات، تنوع البيانات، تخصص البيانات القطاعية، ومصادر البيانات الناشئة مثل إدخال مشاعر وسائل التواصل الاجتماعي متطلبات جديدة لجودتها.

  • مسائل الخصوصية والامتثال: تلاحظ الدول والشركات تدريجياً أهمية مجموعات البيانات عالية الجودة، وتفرض قيوداً على جمع البيانات.

  • تكلفة معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تُظهر البيانات العامة أن أكثر من 30% من تكاليف البحث والتطوير في شركات الذكاء الاصطناعي تُخصص لجمع ومعالجة البيانات الأساسية.

حالياً، يتمثل حل web3 في الجوانب الأربعة التالية:

  1. جمع البيانات: البيانات الحقيقية التي يمكن الحصول عليها مجانًا من العالم تتناقص بسرعة، وتزداد نفقات الشركات العاملة في الذكاء الاصطناعي على البيانات عامًا بعد عام. ولكن في الوقت نفسه، فإن هذه النفقات لم تعود بالفائدة على المساهمين الحقيقيين في البيانات، حيث تستفيد المنصات بالكامل من القيمة المضافة التي تقدمها البيانات.

يسعى Web3 إلى تمكين المستخدمين الذين يقدمون مساهمات حقيقية من المشاركة في خلق القيمة الناتجة عن البيانات، وكذلك الحصول على بيانات أكثر خصوصية وقيمة من المستخدمين بطريقة منخفضة التكلفة من خلال الشبكة الموزعة وآليات التحفيز.

  • يعتبر Grass طبقة بيانات وشبكة لامركزية، حيث يمكن للمستخدمين من خلال تشغيل عقد Grass المساهمة في عرض النطاق الترددي غير المستخدم وتوجيه حركة المرور لالتقاط البيانات الحية من جميع أنحاء الإنترنت، والحصول على مكافآت رمزية؛

  • Vana قد قدمت مفهوم فريد من نوعه لبركة سيولة البيانات ###DLP(، حيث يمكن للمستخدمين رفع بياناتهم الخاصة ) مثل سجلات التسوق، عادات التصفح، أنشطة وسائل التواصل الاجتماعي، إلخ ( إلى DLP محدد، واختيار ما إذا كانوا يرغبون في منح إذن لاستخدام هذه البيانات لطرف ثالث معين.

  • في PublicAI، يمكن للمستخدمين استخدام )Web3 كوسم تصنيفي على X و @PublicAI لجمع البيانات.

  1. معالجة البيانات: في عملية معالجة بيانات الذكاء الاصطناعي، نظرًا لأن البيانات المجمعة عادة ما تكون فوضوية وتحتوي على أخطاء، يجب تنظيفها وتحويلها إلى تنسيق قابل للاستخدام قبل تدريب النموذج، مما يتضمن مهام مكررة تتعلق بالتوحيد، والترشيح، ومعالجة القيم المفقودة. هذه المرحلة هي واحدة من القليل من الخطوات اليدوية في صناعة الذكاء الاصطناعي، وقد نشأت منها صناعة المعلقين على البيانات، مع زيادة متطلبات جودة البيانات للنموذج، ارتفعت أيضًا عتبة الدخول للمعلقين على البيانات، وهذه المهمة تناسب بشكل طبيعي آلية التحفيز اللامركزية في Web3.
  • حالياً، يفكر كل من Grass و OpenLayer في إضافة هذه المرحلة الأساسية المتمثلة في وضع علامات على البيانات.

  • قدمت Synesis مفهوم "Train2earn"، مشددة على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات موسومة أو تعليقات أو أشكال أخرى من المدخلات.

  • مشروع بيانات التوسيم Sapien يقوم بتحويل مهام الوسم إلى لعبة، ويسمح للمستخدمين بتخزين النقاط لكسب المزيد من النقاط.

  1. خصوصية البيانات والأمان: يجب توضيح أن خصوصية البيانات والأمان هما مفهومين مختلفين. تتعلق خصوصية البيانات بمعالجة البيانات الحساسة، بينما يحمي أمان البيانات المعلومات من الوصول غير المصرح به، والضرر، والسرقة. وبالتالي، فإن مزايا تقنيات الخصوصية في Web3 وسيناريوهات التطبيق المحتملة تتجلى في جانبين: #AI或#1( تدريب البيانات الحساسة؛ )2( التعاون في البيانات: يمكن لمالكي البيانات المتعددين المشاركة معًا في تدريب الذكاء الاصطناعي دون الحاجة إلى مشاركة بياناتهم الأصلية.

تشمل تقنيات الخصوصية الشائعة في Web3 حاليًا:

  • بيئة التنفيذ الموثوقة ) TEE (، مثل بروتوكول سوبر؛

  • التشفير المتجانس تمامًا ) FHE (، مثل BasedAI، Fhenix.io أو Inco Network؛

  • تقنية المعرفة الصفرية ) zk (، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS، يولد إثباتات معرفة صفرية لتدفقات HTTPS، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع خارجية بأمان، دون الكشف عن المعلومات الحساسة.

ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، حيث لا تزال معظم المشاريع قيد الاستكشاف، وأحد المآزق الحالية هو أن تكاليف الحساب مرتفعة للغاية، وبعض الأمثلة هي:

  • يتطلب إطار zkML EZKL حوالي 80 دقيقة لإنشاء إثبات نموذج 1M-nanoGPT.

  • وفقًا لبيانات Modulus Labs، فإن تكلفة zkML أعلى بأكثر من 1000 مرة من الحسابات البحتة.

  1. تخزين البيانات: بعد الحصول على البيانات، نحتاج إلى مكان لتخزين البيانات على السلسلة، بالإضافة إلى LLM الناتج عن استخدام تلك البيانات. مع وجود قابلية البيانات )DA( كمشكلة مركزية، كان معدل نقل البيانات في إيثريوم قبل ترقية Danksharding يبلغ 0.08MB. في الوقت نفسه، عادة ما تتطلب تدريب نماذج الذكاء الاصطناعي واستنتاجها في الوقت الحقيقي معدل نقل بيانات يتراوح بين 50 إلى 100GB في الثانية. هذا الفارق في الحجم يجعل الحلول الحالية على السلسلة غير قادرة على مواجهة "تطبيقات الذكاء الاصطناعي كثيفة الموارد."
  • 0g.AI هو المشروع الرائد في هذه الفئة. إنه موجه لـ
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • مشاركة
تعليق
0/400
wagmi_eventuallyvip
· منذ 17 س
又来 خداع الناس لتحقيق الربح.
شاهد النسخة الأصليةرد0
GasWastervip
· منذ 17 س
صحيح، قد تنقذ l2s الذكاء الاصطناعي من أن يصبح كابوس غاز، لا أكذب عليك...
شاهد النسخة الأصليةرد0
consensus_whisperervip
· منذ 17 س
مجرد دعاية، التالية
شاهد النسخة الأصليةرد0
OPsychologyvip
· منذ 17 س
زق، إنها مجرد فخ جديد.
شاهد النسخة الأصليةرد0
BearMarketBarbervip
· منذ 17 س
كلهم يتلاعبون بالمفاهيم لجمع المال فقط~
شاهد النسخة الأصليةرد0
  • تثبيت