OpenLedger بناء اقتصاد الوكلاء الذكي المدفوع بالبيانات باستخدام OP Stack وEigenDA كأساس

تقرير بحثي عميق OpenLedger: بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجميع بالنماذج باستخدام OP Stack + EigenDA كقاعدة.

أ. المقدمة | الانتقال بين نماذج Crypto AI

البيانات، النماذج والقوة الحاسوبية هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، تشبه الوقود (البيانات)، المحرك (النماذج)، والطاقة (القوة الحاسوبية) ولا يمكن الاستغناء عن أي منها. مثلما حدث في مسار تطور البنية التحتية لصناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال الذكاء الاصطناعي في التشفير مراحل مماثلة. في بداية عام 2024، كانت السوق مهيمنة في وقت ما من قبل مشاريع GPU اللامركزية ( وبعض منصات الحوسبة GPU اللامركزية الأخرى )، التي كانت تؤكد بشكل عام على منطق النمو الواسع "تجميع القوة الحاسوبية". ومع دخول عام 2025، بدأ اهتمام الصناعة بالانتقال تدريجياً نحو طبقة النماذج والبيانات، مما يشير إلى أن الذكاء الاصطناعي في التشفير ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.

نماذج اللغة العامة (LLM) مقابل النماذج المتخصصة (SLM)

تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يتراوح حجم المعلمات عادةً بين 70B و 500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى ملايين الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) نموذجًا خفيفًا للتعديل الدقيق القابل لإعادة الاستخدام، وعادة ما يستند إلى نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، ويجمع بين كميات قليلة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تتمتع بمعرفة محددة بسرعة، مما يقلل بشكل كبير من تكلفة التدريب والعوائق التقنية.

من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيعمل بالتعاون مع LLM من خلال آلية استدعاء Agent، ونظام المكونات الإضافية للتوجيه الديناميكي، وLoRA ك modules hot-plug، وRAG (التوليد المعزز بالاسترجاع) وغيرها. يحتفظ هذا الهيكل بقدرة LLM على التغطية الواسعة، بينما يعزز الأداء المتخصص من خلال وحدة الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.

قيمة وحدود Crypto AI في طبقة النموذج

مشاريع الذكاء الاصطناعي في العملات المشفرة من الصعب في الأساس تعزيز القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو

  • العتبة التقنية مرتفعة للغاية: حجم البيانات والموارد الحاسوبية والقدرات الهندسية اللازمة لتدريب نموذج الأساس ضخمة للغاية، حاليًا فقط الشركات التكنولوجية الكبرى في الولايات المتحدة (مثل بعض شركات الذكاء الاصطناعي) والصين (مثل بعض شركات الذكاء الاصطناعي) تمتلك هذه القدرات.
  • قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية السائدة مثل LLaMA وMixtral قد تم فتح مصدرها، إلا أن المفتاح الحقيقي لدفع النموذج نحو الاختراق لا يزال مركزًا في المؤسسات البحثية ونظم الهندسة المغلقة، مما يحد من مساحة مشاركة المشاريع على السلسلة في مستوى النموذج الأساسي.

ومع ذلك، يمكن لمشروع Crypto AI أن يحقق قيمة إضافية من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج الأساس مفتوحة المصدر، بالإضافة إلى دمج إمكانية التحقق من Web3 وآلية التحفيز. ك"طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، يظهر ذلك في اتجاهين رئيسيين:

  • طبقة التحقق الموثوق: من خلال تسجيل مسارات توليد النموذج، ومساهمات البيانات، وحالات الاستخدام على السلسلة، تعزز من قابلية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
  • آلية التحفيز: من خلال استخدام التوكن الأصلي، لتحفيز سلوكيات مثل تحميل البيانات، استدعاء النماذج، وتنفيذ الوكلاء (Agent)، لبناء دورة إيجابية لتدريب النموذج والخدمات.

تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوك تشين

من هنا يتضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع النماذج تتركز بشكل رئيسي على تحسين خفة نموذج SLM الصغير، وتكامل البيانات والتحقق على السلسلة في بنية RAG، وكذلك نشر وتحفيز النماذج الحافة محليًا. بالجمع بين القابلية للتحقق من blockchain وآلية الرموز، يمكن لـ Crypto أن تقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة ل"طبقة واجهة" AI.

سلسلة blockchain AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وغير قابلة للتلاعب مصدر مساهمة كل بيانات ونماذج، مما يعزز بشكل كبير موثوقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد والتكرار، وتحسين هيكل الحكم اللامركزي.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)

٢. نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي على السلسلة

OpenLedger هو واحد من المشاريع القليلة في سوق blockchain AI التي تركز على آليات تحفيز البيانات والنماذج. لقد طرح مفهوم "Payable AI" لأول مرة، ويهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات، ومطوري النماذج، وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عائدات على السلسلة بناءً على المساهمات الفعلية.

OpenLedger توفر حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" وصولاً إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:

  • Model Factory: لا حاجة للبرمجة، يمكنك استخدام LoRA لتدريب وتعديل النماذج المخصصة ونشرها بناءً على LLM مفتوح المصدر؛
  • OpenLoRA: يدعم التعايش بين آلاف النماذج، تحميل ديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
  • PoA (إثبات النسبة): تحقيق قياس المساهمة وتوزيع المكافآت من خلال تسجيل الاستدعاءات على السلسلة؛
  • Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات عمودية، تم بناؤها والتحقق منها من قبل المجتمع؛
  • منصة اقتراح النموذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، وقابلة للاستدعاء، وقابلة للدفع.

من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي القائم على البيانات وقابلية تجميع النماذج"، مما يعزز التحويل على السلسلة لسلسلة قيمة الذكاء الاصطناعي.

وفي اعتماد تكنولوجيا البلوكشين، تقدم OpenLedger بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود، باستخدام OP Stack + EigenDA كقاعدة.

  • مبني على OP Stack: يعتمد على تقنية Optimism، يدعم تنفيذ عالي الإنتاجية ومنخفض التكلفة؛
  • التسوية على الشبكة الرئيسية للإيثريوم: لضمان أمان المعاملات وسلامة الأصول؛
  • متوافق مع EVM: يسهل على المطورين نشر وتوسيع التطبيقات بسرعة باستخدام Solidity؛
  • EigenDA يوفر دعم توفر البيانات: يقلل بشكل كبير من تكاليف التخزين، ويضمن قابلية التحقق من البيانات.

بالمقارنة مع بعض سلاسل الكتل التي تركز أكثر على الطبقة الأساسية، والتي تروج لسيادة البيانات وهندسة "AI Agents on BOS"، تركز OpenLedger أكثر على بناء سلسلة مخصصة للذكاء الاصطناعي والتي تستهدف تحفيز البيانات والنماذج، وتهدف إلى جعل تطوير النماذج واستدعائها قابلاً للتتبع وقابلاً للتجميع وقابل للاستمرار في القيمة على السلسلة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج على غرار منصة استضافة معينة، وفوترة الاستخدام على غرار منصة دفع معينة، وواجهة قابلة للتجميع على السلسلة على غرار منصة بنية تحتية معينة، مما يعزز طريق تحقيق "النموذج كأصل".

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)

ثلاثة، المكونات الأساسية لـ OpenLedger وهيكلها الفني

3.1 نموذج المصنع،无需代码模型工厂

ModelFactory هو منصة لضبط نماذج اللغة الكبيرة (LLM) تحت نظام OpenLedger. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج بناءً على مجموعة البيانات التي تم إكمال تفويضها ومراجعتها على OpenLedger. وقد تم تحقيق سير العمل المتكامل لتفويض البيانات، تدريب النموذج ونشره، حيث تشمل العمليات الأساسية ما يلي:

  • التحكم في الوصول إلى البيانات: يقوم المستخدم بتقديم طلبات البيانات، يقوم المزود بمراجعة الموافقة، ويتم الاتصال بالبيانات تلقائيًا بواجهة تدريب النموذج.
  • اختيار النموذج وتكويناته: يدعم LLM الرئيسي (مثل LLaMA و Mistral)، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
  • التعديل الخفيف: محرك LoRA / QLoRA المدمج، عرض تقدم التدريب في الوقت الحقيقي.
  • تقييم النماذج ونشرها: أدوات تقييم مدمجة، تدعم تصدير النشر أو استدعاء المشاركة البيئية.
  • واجهة التحقق التفاعلية: توفر واجهة محادثة، مما يسهل اختبار قدرة النموذج على الإجابة.
  • توليد تتبع RAG: توفير إجابات مع مراجع مصدرية، لتعزيز الثقة وقابلية التدقيق.

يتضمن هيكل نظام Model Factory ستة وحدات، تشمل المصادقة على الهوية، حقوق البيانات، ضبط النموذج، تقييم النشر و RAG تتبع المصدر، لإنشاء منصة خدمة نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للتسويق المستدام.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)

جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory هو كما يلي:

  • سلسلة LLaMA: الأكثر تنوعًا في النظام البيئي، المجتمع نشط، الأداء العام قوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
  • Mistral: بنية فعالة، وأداء استدلال ممتاز، مناسب للنشر المرن والسيناريوهات ذات الموارد المحدودة.
  • Qwen:شركة معينة تصنعه، أداء المهام باللغة الصينية ممتاز، والقدرة الشاملة قوية، مما يجعله خيارًا مثاليًا للمطورين المحليين.
  • ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمة العملاء في المجالات المتخصصة والمشاهد المحلية.
  • Deepseek: يتميز بأداء متفوق في توليد الشيفرة والتفكير الرياضي، مناسب لأدوات المساعدة في تطوير الذكاء.
  • Gemma: نموذج خفيف تم إطلاقه من قبل شركة معينة، هيكل واضح، سهل الاستخدام والتجربة سريعًا.
  • فالكون: كان معيار الأداء، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
  • BLOOM: دعم اللغات المتعددة قوي، ولكن أداء الاستدلال ضعيف، مناسب للأبحاث التي تغطي اللغات.
  • GPT-2: نموذج مبكر كلاسيكي، مناسب فقط لأغراض التعليم والتحقق، ولا يُنصح باستخدامه في النشر الفعلي.

على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست متخلفة، بل تم إعدادها ك配置 "الأولوية العملية" بناءً على القيود الواقعية للنشر على السلسلة (تكاليف الاستنتاج، توافق RAG، توافق LoRA، بيئة EVM).

تعتبر Model Factory كأداة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق مقدمي البيانات ومطوري النماذج، وتتميز بانخفاض الحواجز، وقابلية التسييل، والقدرة على التكوين، مقارنةً بأدوات تطوير النماذج التقليدية:

  • للمطورين: تقديم مسار كامل لنمذجة الحضانة والتوزيع والإيرادات؛
  • بالنسبة للمنصة: تشكيل نماذج الأصول المتداولة وبيئة التجميع؛
  • للمستخدمين: يمكن دمج النماذج أو الوكلاء كما لو كنت تستدعي واجهة برمجة التطبيقات.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA، تحويل الأصول على السلسلة لنموذج الضبط

LoRA (التكيف منخفض الرتبة) هو طريقة فعالة لضبط المعلمات من خلال إدخال "مصفوفة منخفضة الرتبة" في نموذج كبير تم تدريبه مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA، GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل الأسئلة القانونية، الاستشارات الطبية)، يلزم إجراء ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفة المعلمات الجديدة المدخلة."، حيث تتمتع بكفاءة في المعلمات، وسرعة في التدريب، ومرونة في النشر، مما يجعلها الطريقة الرئيسية الأنسب لنشر نماذج Web3 واستدعائها بشكل مركب.

OpenLoRA هو إطار استدلال خفيف الوزن تم تصميمه خصيصًا لنشر نماذج متعددة ومشاركة الموارد من قبل OpenLedger. الهدف الأساسي منه هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكاليف المرتفعة، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، ودفع تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).

مكونات النظام الأساسي OpenLoRA، تعتمد على تصميم معياري، تغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الأساسية، مما يحقق قدرة نشر واستدعاء متعددة النماذج بكفاءة وتكلفة منخفضة:

  • وحدة تخزين LoRA Adapter (LoRA Adapters Storage): يتم استضافة LoRA adapter المعدل على OpenLedger لتحقيق التحميل حسب الطلب
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 7
  • مشاركة
تعليق
0/400
MetaDreamervip
· 07-10 06:36
قوة الحوسبة للنموذج ليست مهمة، المهم هو البيانات فهي الملك.
شاهد النسخة الأصليةرد0
ProxyCollectorvip
· 07-09 23:14
من اليوم سأبدأ برسم BTC
شاهد النسخة الأصليةرد0
NftPhilanthropistvip
· 07-08 16:48
في الواقع... يوم آخر أحاول فيه ترميز الشبكات العصبية، يا إلهي
شاهد النسخة الأصليةرد0
DeepRabbitHolevip
· 07-07 08:27
لقد اكتفيت من قوة الحوسبة، أليس كذلك؟
شاهد النسخة الأصليةرد0
0xSunnyDayvip
· 07-07 08:24
إذا تم تحسين الأساس ، سيكون التمويل سريعًا.
شاهد النسخة الأصليةرد0
gas_guzzlervip
· 07-07 08:07
فهمت جيدًا، الأساس لا يزال L2
شاهد النسخة الأصليةرد0
gaslight_gasfeezvip
· 07-07 08:03
هل نناقش المستوى السابق أم نركز على قوة الحوسبة؟
شاهد النسخة الأصليةرد0
  • تثبيت