OpenLedger العمق تقرير البحث: بناء اقتصاد ذكي مدفوع بالبيانات وقابل للتجميع بالنماذج
أ. المقدمة | قفزة نموذج Crypto AI
البيانات، النماذج والقوة الحاسوبية هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، ولا يمكن الاستغناء عن أي منها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضا مجال الذكاء الاصطناعي المشفر مراحل مشابهة. في أوائل عام 2024، كان السوق في وقت ما مهيمنًا عليه من قبل مشاريع GPU اللامركزية، حيث تم التأكيد بشكل عام على منطق النمو الواسع الذي يركز على "تجميع القوة الحاسوبية". ومع دخول عام 2025، بدأت نقاط التركيز في الصناعة بالانتقال تدريجيا إلى طبقة النماذج والبيانات، مما يدل على أن الذكاء الاصطناعي المشفر ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
النموذج العام الكبير (LLM) مقابل النموذج المتخصص (SLM)
تعتمد نماذج اللغة التقليدية (LLM) بشكل كبير على مجموعات بيانات واسعة النطاق وهياكل موزعة معقدة، حيث تتراوح أحجام المعلمات من 70B إلى 500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى عدة ملايين من الدولارات. بينما يُعتبر نموذج اللغة المتخصص (SLM) نموذجًا خفيف الوزن لتعديل النماذج الأساسية القابلة لإعادة الاستخدام، وعادة ما يعتمد على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، ويجمع بين كمية صغيرة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة بمجالات محددة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والعقبات التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيعمل بالتعاون مع LLM من خلال هيكل Agent، ونظام الإضافات للتوجيه الديناميكي، وLoRA لتوصيل الوحدات بشكل ساخن، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM الواسعة، بينما يعزز الأداء المتخصص من خلال وحدات التعديل، مما يشكل نظامًا ذكيًا مركبًا عالي المرونة.
قيمة و حدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب بطبيعتها تحسين القدرات الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
العوائق التقنية مرتفعة للغاية: إن حجم البيانات والموارد الحاسوبية والقدرات الهندسية اللازمة لتدريب نموذج الأساس هائلة جداً، والآن فقط عمالقة التكنولوجيا يمتلكون القدرات المناسبة.
حدود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية الرائجة مثل LLaMA و Mixtral قد تم فتح مصدرها، إلا أن المفتاح الحقيقي لدفع النموذج نحو التقدم لا يزال مركزًا في مؤسسات البحث العلمي ونظام الهندسة المغلق، حيث أن مساحة مشاركة المشاريع على السلسلة في مستوى النموذج الأساسي محدودة.
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة ممتدة من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج أساسية مفتوحة المصدر، بالإضافة إلى دمج قابلية التحقق وآليات التحفيز الخاصة بـ Web3. باعتبارها "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، فإنها تتجلى في اتجاهين رئيسيين:
طبقة التحقق الموثوق: تعزز قابلية تتبع مخرجات الذكاء الاصطناعي ومقاومة التلاعب من خلال تسجيل مسارات توليد النموذج، ومساهمات البيانات واستخدامها على السلسلة.
آلية التحفيز: من خلال الرمز الأصلي، يتم تحفيز تحميل البيانات، واستدعاء النماذج، وتنفيذ الوكلاء، وغيرها من السلوكيات، لبناء دورة إيجابية لتدريب النماذج والخدمات.
تحليل ملاءمة نوع نموذج الذكاء الاصطناعي وتصنيفه مع البلوكشين
من الواضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذجية تتركز أساسًا على تحسين خفيف لنموذج SLM صغير، وإدخال البيانات والتحقق من الهيكل RAG على السلسلة، بالإضافة إلى نشر النموذج Edge محليًا وتحفيزه. بالاعتماد على القابلية للتحقق من blockchain وآلية الرموز، يمكن أن توفر Crypto قيمة فريدة لمثل هذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة متميزة لطبقة "واجهة" AI.
سلسلة blockchain AI المستندة إلى البيانات والنماذج يمكن أن تسجل بوضوح وسجل غير قابل للتغيير لمصدر مساهمات كل من البيانات والنماذج على السلسلة، مما يعزز بشكل ملحوظ مصداقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول السلوك الذكي إلى قيمة قابلة للقياس وقابلة للتداول على شكل رموز، مما يبني نظام تحفيزي مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد والتكرار، وتحسين هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية AI Chain لـ OpenLedger
OpenLedger هو واحد من المشاريع القليلة في سوق blockchain AI التي تركز على البيانات وآليات تحفيز النماذج. وقد قدمت لأول مرة مفهوم "AI القابلة للدفع"، بهدف بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر سلسلة مغلقة كاملة من "تقديم البيانات" إلى "نشر النماذج" ثم "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
مصنع النموذج: لا حاجة للبرمجة، يمكنك استخدام LoRA لتعديل التدريب ونشر نموذج مخصص بناءً على LLM مفتوح المصدر؛
OpenLoRA: يدعم وجود آلاف النماذج معًا، تحميل ديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): من خلال تسجيل استدعاءات السلسلة لتحقيق قياس المساهمة وتوزيع المكافآت؛
Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات متخصصة، تم بناؤها والتحقق منها من قبل المجتمع؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، قابلة للاستدعاء، وقابلة للدفع.
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" المدفوعة بالبيانات والقابلة للتجميع بالنماذج، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية البلوك تشين، تستخدم OpenLedger OP Stack + EigenDA كأساس، لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
مبني على OP Stack: مبني على تقنية Optimism، يدعم تنفيذ عالي السعة ومنخفض التكلفة؛
التسوية على شبكة الإيثيريوم الرئيسية: ضمان أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع التطبيقات بسرعة بناءً على Solidity؛
EigenDA توفر دعم توفر البيانات: تقلل بشكل كبير من تكاليف التخزين، وتضمن قابلية تحقق البيانات.
بالمقارنة مع سلسلة AI العامة التي تركز على البيانات والسلطة على البيانات مع بنية "AI Agents on BOS" ، تركز OpenLedger أكثر على بناء سلسلة AI مخصصة لتحفيز البيانات والنماذج ، مع التركيز على تحقيق قيمة قابلة للتتبع ، وقابلة للجمع ، ومستدامة لتطوير النماذج واستدعائها على السلسلة. إنها بنية تحتية لتحفيز النماذج في عالم Web3 ، تجمع بين استضافة النماذج ، والفوترة على الاستخدام ، وواجهات قابلة للجمع على السلسلة ، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية لـ OpenLedger وهيكلها التكنولوجي
3.1 نموذج المصنع،无需代码模型工厂
ModelFactory هو منصة لضبط نموذج اللغة الكبيرة (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج استنادًا إلى مجموعة البيانات التي تم تفويضها ومراجعتها على OpenLedger. حققت تكامل سير العمل من تفويض البيانات، وتدريب النموذج، ونشره، وتشتمل العمليات الأساسية على:
التحكم في الوصول إلى البيانات: يقدم المستخدم طلبات بيانات، ويقوم المزود بمراجعتها والموافقة عليها، ويتم إدخال البيانات تلقائيًا في واجهة تدريب النموذج.
اختيار النموذج وتكوينه: يدعم LLM الشائعة (مثل LLaMA وMistral)، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
خفض الوزن الدقيق: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الحقيقي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو المشاركة البيئية.
واجهة التحقق التفاعلية: توفر واجهة دردشة، مما يسهل اختبار قدرة النموذج على الإجابة.
توليد تتبع RAG: تقديم إجابات مع مراجع للمصدر، مما يعزز الثقة وقابلية التدقيق.
نظام Model Factory يتكون من ستة وحدات، تشمل مصادقة الهوية، وصلاحيات البيانات، وتعديل النموذج، وتقييم النشر و RAG تتبع المصدر، لبناء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للتحقيق المستدام.
جدول ملخص القدرات الحالية لنماذج اللغة الكبيرة المدعومة من ModelFactory كما يلي:
سلسلة LLaMA: الأكثر تنوعًا في البيئة، المجتمع نشط، الأداء العام قوي، وهي واحدة من أكثر نماذج الأساس مفتوحة المصدر شيوعًا في الوقت الحالي.
Qwen:الأداء الممتاز في المهام باللغة الصينية، والقدرة الشاملة قوية، مما يجعله الخيار الأول للمطورين المحليين.
ChatGLM: تأثير الحوار باللغة الصينية بارز، مناسب لخدمات العملاء المتخصصة والمشاهد المحلية.
Deepseek: يتمتع بأداء متفوق في توليد الأكواد والاستدلال الرياضي، وهو مناسب لأدوات المساعدة في التطوير الذكي.
Gemma: نموذج خفيف أطلقته Google، هيكل واضح، سهل الاستخدام السريع والتجريب.
فالكون: كان معيار الأداء، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد قل.
BLOOM: دعم لغات متعددة قوي، لكن أداء الاستدلال ضعيف، مناسب لأبحاث تغطية اللغات.
GPT-2: نموذج مبكر كلاسيكي، مناسب فقط لأغراض التعليم والتحقق، ولا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "يضع العملية في المقام الأول" استنادًا إلى القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
Model Factory كأداة بدون كود، تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، تتميز بعوائق دخول منخفضة، وقابلية التسييل، وقابلية التركيب، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل للنماذج من الحضانة، التوزيع، والإيرادات؛
بالنسبة للمنصة: تشكيل تدفق أصول النموذج وبيئة التركيب؛
بالنسبة للمستخدمين: يمكن دمج النماذج أو الوكلاء كما لو كنت تستدعي API.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA ، تحويل الأصول على السلسلة لنموذج Fine-tuning
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات بشكل دقيق، من خلال إدخال "مصفوفة منخفضة الرتبة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب واحتياجات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة، يجب إجراء ضبط دقيق. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفة المعلمات الجديدة المدخلة."، مع كفاءة عالية في المعلمات، تدريب سريع، ونشر مرن، وهي الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger، مصمم لنشر نماذج متعددة ومشاركة الموارد. الهدف الأساسي منه هو معالجة القضايا الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وهدر موارد الـ GPU، مما يدفع نحو تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).
المكونات الأساسية لهندسة نظام OpenLoRA، مبنية على تصميم معياري، تغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الرئيسية، لتحقيق قدرة فعالة ومنخفضة التكلفة لنشر واستدعاء نماذج متعددة:
وحدة تخزين LoRA Adapter: يتم استضافة LoRA adapter الذي تم ضبطه على OpenLedger، مما يتيح التحميل حسب الطلب، وتجنب تحميل جميع النماذج مسبقًا في ذاكرة الرسومات، مما يوفر الموارد.
استضافة النماذج وطبقة الاندماج الديناميكية: جميع نماذج التعديل المشترك تستخدم النموذج الأساسي الكبير، أثناء الاستدلال يتم دمج محول LoRA بشكل ديناميكي، ويدعم الاستدلال المشترك لعدة محولات، مما يعزز الأداء.
محرك الاستدلال: يتضمن تقنيات تحسين CUDA متعددة مثل Flash-Attention و Paged-Attention و SGMV وغيرها.
وحدة توجيه الطلبات والإخراج المتدفق: توجيه ديناميكي إلى المحول الصحيح بناءً على النموذج المطلوب في الطلب، وتحقيق التوليد المتدفق على مستوى التوكن من خلال تحسين النواة.
تتعلق عملية الاستدلال في OpenLoRA بعملية خدمة النماذج "الناضجة العامة" على المستوى الفني، كما يلي:
تحميل النموذج الأساسي: يقوم النظام بتحميل نماذج كبيرة أساسية مثل LLaMA 3 و Mistral وغيرها إلى
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 13
أعجبني
13
7
مشاركة
تعليق
0/400
LiquidatedDreams
· منذ 5 س
بطاقة الرسومات سيئة للغاية، هل لا يزال يتم الاستفادة من حماس الذكاء الاصطناعي؟
شاهد النسخة الأصليةرد0
AllInAlice
· منذ 16 س
مرة أخرى ، هناك نموذج يمكن تركيبه. هل هناك أي رؤى قيمة؟
OpenLedger تبني سلسلة AI مدفوعة بالبيانات لتحقيق أصول النماذج واقتصاد الوكلاء القابل للتجميع
OpenLedger العمق تقرير البحث: بناء اقتصاد ذكي مدفوع بالبيانات وقابل للتجميع بالنماذج
أ. المقدمة | قفزة نموذج Crypto AI
البيانات، النماذج والقوة الحاسوبية هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، ولا يمكن الاستغناء عن أي منها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضا مجال الذكاء الاصطناعي المشفر مراحل مشابهة. في أوائل عام 2024، كان السوق في وقت ما مهيمنًا عليه من قبل مشاريع GPU اللامركزية، حيث تم التأكيد بشكل عام على منطق النمو الواسع الذي يركز على "تجميع القوة الحاسوبية". ومع دخول عام 2025، بدأت نقاط التركيز في الصناعة بالانتقال تدريجيا إلى طبقة النماذج والبيانات، مما يدل على أن الذكاء الاصطناعي المشفر ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
النموذج العام الكبير (LLM) مقابل النموذج المتخصص (SLM)
تعتمد نماذج اللغة التقليدية (LLM) بشكل كبير على مجموعات بيانات واسعة النطاق وهياكل موزعة معقدة، حيث تتراوح أحجام المعلمات من 70B إلى 500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى عدة ملايين من الدولارات. بينما يُعتبر نموذج اللغة المتخصص (SLM) نموذجًا خفيف الوزن لتعديل النماذج الأساسية القابلة لإعادة الاستخدام، وعادة ما يعتمد على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، ويجمع بين كمية صغيرة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة بمجالات محددة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والعقبات التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيعمل بالتعاون مع LLM من خلال هيكل Agent، ونظام الإضافات للتوجيه الديناميكي، وLoRA لتوصيل الوحدات بشكل ساخن، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM الواسعة، بينما يعزز الأداء المتخصص من خلال وحدات التعديل، مما يشكل نظامًا ذكيًا مركبًا عالي المرونة.
قيمة و حدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب بطبيعتها تحسين القدرات الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة ممتدة من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج أساسية مفتوحة المصدر، بالإضافة إلى دمج قابلية التحقق وآليات التحفيز الخاصة بـ Web3. باعتبارها "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، فإنها تتجلى في اتجاهين رئيسيين:
تحليل ملاءمة نوع نموذج الذكاء الاصطناعي وتصنيفه مع البلوكشين
من الواضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذجية تتركز أساسًا على تحسين خفيف لنموذج SLM صغير، وإدخال البيانات والتحقق من الهيكل RAG على السلسلة، بالإضافة إلى نشر النموذج Edge محليًا وتحفيزه. بالاعتماد على القابلية للتحقق من blockchain وآلية الرموز، يمكن أن توفر Crypto قيمة فريدة لمثل هذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة متميزة لطبقة "واجهة" AI.
سلسلة blockchain AI المستندة إلى البيانات والنماذج يمكن أن تسجل بوضوح وسجل غير قابل للتغيير لمصدر مساهمات كل من البيانات والنماذج على السلسلة، مما يعزز بشكل ملحوظ مصداقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول السلوك الذكي إلى قيمة قابلة للقياس وقابلة للتداول على شكل رموز، مما يبني نظام تحفيزي مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد والتكرار، وتحسين هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية AI Chain لـ OpenLedger
OpenLedger هو واحد من المشاريع القليلة في سوق blockchain AI التي تركز على البيانات وآليات تحفيز النماذج. وقد قدمت لأول مرة مفهوم "AI القابلة للدفع"، بهدف بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر سلسلة مغلقة كاملة من "تقديم البيانات" إلى "نشر النماذج" ثم "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" المدفوعة بالبيانات والقابلة للتجميع بالنماذج، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية البلوك تشين، تستخدم OpenLedger OP Stack + EigenDA كأساس، لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
بالمقارنة مع سلسلة AI العامة التي تركز على البيانات والسلطة على البيانات مع بنية "AI Agents on BOS" ، تركز OpenLedger أكثر على بناء سلسلة AI مخصصة لتحفيز البيانات والنماذج ، مع التركيز على تحقيق قيمة قابلة للتتبع ، وقابلة للجمع ، ومستدامة لتطوير النماذج واستدعائها على السلسلة. إنها بنية تحتية لتحفيز النماذج في عالم Web3 ، تجمع بين استضافة النماذج ، والفوترة على الاستخدام ، وواجهات قابلة للجمع على السلسلة ، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية لـ OpenLedger وهيكلها التكنولوجي
3.1 نموذج المصنع،无需代码模型工厂
ModelFactory هو منصة لضبط نموذج اللغة الكبيرة (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج استنادًا إلى مجموعة البيانات التي تم تفويضها ومراجعتها على OpenLedger. حققت تكامل سير العمل من تفويض البيانات، وتدريب النموذج، ونشره، وتشتمل العمليات الأساسية على:
نظام Model Factory يتكون من ستة وحدات، تشمل مصادقة الهوية، وصلاحيات البيانات، وتعديل النموذج، وتقييم النشر و RAG تتبع المصدر، لبناء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للتحقيق المستدام.
جدول ملخص القدرات الحالية لنماذج اللغة الكبيرة المدعومة من ModelFactory كما يلي:
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "يضع العملية في المقام الأول" استنادًا إلى القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
Model Factory كأداة بدون كود، تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، تتميز بعوائق دخول منخفضة، وقابلية التسييل، وقابلية التركيب، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA ، تحويل الأصول على السلسلة لنموذج Fine-tuning
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات بشكل دقيق، من خلال إدخال "مصفوفة منخفضة الرتبة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب واحتياجات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة، يجب إجراء ضبط دقيق. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفة المعلمات الجديدة المدخلة."، مع كفاءة عالية في المعلمات، تدريب سريع، ونشر مرن، وهي الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger، مصمم لنشر نماذج متعددة ومشاركة الموارد. الهدف الأساسي منه هو معالجة القضايا الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وهدر موارد الـ GPU، مما يدفع نحو تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).
المكونات الأساسية لهندسة نظام OpenLoRA، مبنية على تصميم معياري، تغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الرئيسية، لتحقيق قدرة فعالة ومنخفضة التكلفة لنشر واستدعاء نماذج متعددة:
تتعلق عملية الاستدلال في OpenLoRA بعملية خدمة النماذج "الناضجة العامة" على المستوى الفني، كما يلي: