تقرير بحث AI Layer1: البحث عن التربة الخصبة داخل السلسلة لـ DeAI
نظرة عامة
في السنوات الأخيرة، قامت الشركات التكنولوجية الكبرى مثل OpenAI وAnthropic وGoogle وMeta بدفع التطور السريع لنماذج اللغة الكبيرة (LLM). لقد أظهرت نماذج اللغة الكبيرة قدرات غير مسبوقة في جميع المجالات، مما وسع بشكل كبير من خيال البشرية، وحتى في بعض السيناريوهات، أظهرت قدرة على استبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات يقع في أيدي عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رأس المال الضخم والسيطرة على موارد الحوسبة باهظة الثمن، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل من الصعب على الغالبية العظمى من المطورين وفرق الابتكار التنافس معها.
في نفس الوقت، خلال المرحلة المبكرة من التطور السريع للذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الاختراقات والراحة التي تجلبها التكنولوجيا، بينما تكون الاهتمامات المتعلقة بحماية الخصوصية، والشفافية، والأمان أقل نسبيًا. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على التطور الصحي لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستصبح الجدل حول ما إذا كان الذكاء الاصطناعي "للخير" أم "للشر" أكثر وضوحًا، وفي ظل الدافع الربحي للعمالقة المركزيين، غالبًا ما يفتقرون إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تقدم تقنية البلوكشين، بفضل خصائصها المتمثلة في اللامركزية والشفافية ومقاومة الرقابة، إمكانيات جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. في الوقت الحالي، ظهرت العديد من تطبيقات "Web3 AI" على بعض سلاسل البلوكشين الرائجة. ولكن من خلال التحليل المتعمق، يمكن ملاحظة أن هذه المشاريع لا تزال تواجه العديد من المشكلات: من ناحية، فإن درجة اللامركزية محدودة، حيث لا تزال النقاط الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، مما يجعل من الصعب دعم نظام بيئي مفتوح بالمعنى الحقيقي؛ ومن ناحية أخرى، مقارنةً بمنتجات الذكاء الاصطناعي في عالم Web2، لا يزال الذكاء الاصطناعي داخل السلسلة محدودًا من حيث قدرة النماذج، واستخدام البيانات، وسيناريوهات التطبيق، مما يتطلب تحسين عمق الابتكار واتساعه.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، ولتمكين blockchain من استيعاب تطبيقات الذكاء الاصطناعي على نطاق واسع بشكل آمن وفعال وديمقراطي، والتنافس مع الحلول المركزية من حيث الأداء، نحتاج إلى تصميم blockchain Layer1 مصممة خصيصًا للذكاء الاصطناعي. سيؤدي ذلك إلى توفير أساس قوي للابتكار المفتوح في الذكاء الاصطناعي، والديمقراطية في الحوكمة، وأمان البيانات، مما يعزز ازدهار生态 الذكاء الاصطناعي اللامركزي.
الخصائص الأساسية لـ AI Layer 1
AI Layer 1 كشبكة بلوكتشين مصممة خصيصًا لتطبيقات الذكاء الاصطناعي، فإن البنية التحتية الأساسية وتصميم الأداء تركز بشكل وثيق حول متطلبات مهام الذكاء الاصطناعي، بهدف دعم التنمية المستدامة والازدهار للنظام البيئي الذكي داخل السلسلة. على وجه التحديد، يجب أن تتمتع AI Layer 1 بالقدرات الأساسية التالية:
آلية الحوافز الفعالة وآلية الإجماع اللامركزية تكمن جوهر AI Layer 1 في بناء شبكة مفتوحة لمشاركة الموارد مثل القدرة الحاسوبية والتخزين. على عكس تركيز عقد blockchain التقليدية بشكل أساسي على تسجيل الدفتر، تحتاج عقد AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يتعين عليها توفير القدرة الحاسوبية، وإكمال تدريب ونمذجة الذكاء الاصطناعي، بالإضافة إلى المساهمة في التخزين والبيانات وعرض النطاق الترددي، مما يكسر احتكار الهيئات المركزية في البنية التحتية للذكاء الاصطناعي. وهذا يضع متطلبات أعلى على آلية الإجماع والحوافز الأساسية: يجب أن تكون AI Layer 1 قادرة على تقييم ومكافأة والتحقق بدقة من المساهمات الفعلية للعقد في مهام الاستدلال والتدريب في الذكاء الاصطناعي، مما يحقق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتقليل التكلفة الإجمالية للقدرة الحاسوبية بشكل فعال.
أداء عالي ممتاز وقدرة دعم المهام المتنوعة تتطلب مهام الذكاء الاصطناعي، وخاصة تدريب واستدلال LLM، متطلبات عالية من حيث الأداء الحاسوبي وقدرة المعالجة المتوازية. علاوة على ذلك، غالبًا ما يتطلب النظام البيئي للذكاء الاصطناعي داخل السلسلة دعم أنواع متعددة ومتنوعة من المهام، بما في ذلك هياكل نماذج مختلفة، معالجة البيانات، الاستدلال، والتخزين، وغيرها من السيناريوهات المتنوعة. يجب أن يتم تحسين Layer 1 للذكاء الاصطناعي بعمق على مستوى البنية التحتية لتلبية متطلبات السعة العالية، وانخفاض زمن الاستجابة، والمعالجة المتوازية المرنة، مع توفير دعم أصلي للموارد الحاسوبية المتنوعة، لضمان تشغيل مهام الذكاء الاصطناعي بكفاءة، وتحقيق التوسع السلس من "المهام الفردية" إلى "الأنظمة البيئية المعقدة والمتنوعة".
القابلية للتحقق وضمان المخرجات الموثوقة يجب على AI Layer 1 ألا يمنع فقط سوء استخدام النموذج، وتعديل البيانات، وغيرها من المخاطر الأمنية، بل يجب أيضًا أن يضمن من خلال آلية أساسية القابلية للتحقق من نتائج AI وتوافقها. من خلال دمج بيئات التنفيذ الموثوقة (TEE) ، وإثباتات المعرفة الصفرية (ZK) ، والحسابات الآمنة متعددة الأطراف (MPC) وغيرها من التقنيات المتقدمة، يمكن للمنصة أن تجعل كل استنتاج من النموذج، والتدريب، وعملية معالجة البيانات قابلة للتحقق بشكل مستقل، مما يضمن نزاهة وشفافية نظام AI. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين على فهم منطق ومرجع مخرجات AI، مما يحقق "ما تحصل عليه هو ما ترغب فيه"، ويعزز ثقة المستخدمين ورضاهم عن منتجات AI.
حماية خصوصية البيانات
تتعلق تطبيقات الذكاء الاصطناعي غالبًا ببيانات حساسة للمستخدمين، وفي مجالات مثل المالية والطب والتواصل الاجتماعي، تعتبر حماية خصوصية البيانات أمرًا حاسمًا. يجب أن يعتمد AI Layer 1 على تقنيات معالجة البيانات المستندة إلى التشفير، وبروتوكولات حساب الخصوصية، وإدارة أذونات البيانات، مع ضمان القابلية للتحقق، لضمان أمان البيانات خلال جميع مراحل الاستدلال والتدريب والتخزين، ومنع تسرب البيانات وإساءة استخدامها بشكل فعال، وإزالة مخاوف المستخدمين بشأن أمان البيانات.
القدرة القوية على دعم وتحمل النظام البيئي كمنصة بنية تحتية من Layer 1 الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة التقنية، ولكن أيضًا بتوفير أدوات تطوير متكاملة، SDK مدمجة، دعم العمليات، وآليات تحفيز للمطورين، مشغلي العقد، ومقدمي خدمات الذكاء الاصطناعي وغيرهم من المشاركين في النظام البيئي. من خلال تحسين استمرارية قابلية استخدام المنصة وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة، مما يحقق الازدهار المستدام للنظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستتناول هذه المقالة بالتفصيل ستة مشاريع تمثيلية من Layer1 للذكاء الاصطناعي بما في ذلك Sentient و Sahara AI و Ritual و Gensyn و Bittensor و 0G، حيث سيتم تنظيم أحدث التطورات في هذا المجال وتحليل حالة تطوير المشاريع، بالإضافة إلى مناقشة الاتجاهات المستقبلية.
Sentient: بناء نموذج AI مفتوح المصدر لامركزي موثوق
نظرة عامة على المشروع
Sentient هو منصة بروتوكول مفتوح المصدر، تعمل على إنشاء سلسلة بلوكشين AI Layer1 ( المرحلة الأولية هي Layer 2، ثم ستنتقل إلى Layer 1)، من خلال دمج AI Pipeline وتقنية البلوكشين، لبناء اقتصاد ذكاء اصطناعي لامركزي. الهدف الأساسي هو حل مشاكل ملكية النماذج، تتبع الاستدعاءات وتوزيع القيمة في سوق LLM المركزي من خلال إطار "OML" (مفتوح، قابل للربح، موثوق) مما يجعل نماذج الذكاء الاصطناعي تحقق هيكل ملكية داخل السلسلة، وشفافية الاستدعاء، وتوزيع القيمة. رؤية Sentient هي تمكين أي شخص من بناء، التعاون، امتلاك وتسييل منتجات الذكاء الاصطناعي، مما يعزز شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال السلسلة من جميع أنحاء العالم، ويهدف إلى بناء منصة AGI مدفوعة بالمجتمع ومفتوحة المصدر وقابلة للتحقق. يتضمن الأعضاء الرئيسيون البروفيسور Pramod Viswanath من جامعة برينستون والبروفيسور Himanshu Tyagi من المعهد الهندي للعلوم، اللذان يتوليان مسؤولية أمان الذكاء الاصطناعي وحماية الخصوصية، بينما يقود Sandeep Nailwal، المؤسس المشارك لشركة Polygon، الاستراتيجية السلسلة وتخطيط النظام البيئي. يمتد خلفية أعضاء الفريق عبر شركات معروفة مثل Meta وCoinbase وPolygon، بالإضافة إلى جامعات مرموقة مثل جامعة برينستون والمعهد الهندي للتكنولوجيا، ويغطي مجالات AI/ML وNLP ورؤية الكمبيوتر، ويتعاونون لدفع المشروع نحو التنفيذ.
كمشروع ريادة أعمال ثانٍ لمؤسس Polygon المشارك Sandeep Nailwal، جاءت Sentient منذ البداية مع هالة خاصة، حيث تمتلك موارد غنية، وشبكات، ووعي بالسوق، مما يوفر دعمًا قويًا لتطوير المشروع. في منتصف عام 2024، أكملت Sentient جولة تمويل أولية بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، بالإضافة إلى عدد من المؤسسات الاستثمارية الأخرى بما في ذلك Delphi وHashkey وSpartan وغيرها من شركات رأس المال المغامر المعروفة.
تصميم الهيكل والطبقة التطبيقية
طبقة البنية التحتية
البنية الأساسية
يتكون الهيكل الأساسي لـ Sentient من جزئين: أنبوب الذكاء الاصطناعي (AI Pipeline) ونظام داخل السلسلة.
أنابيب الذكاء الاصطناعي هي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتحتوي على عمليتين رئيسيتين:
تخطيط البيانات (Data Curation): عملية اختيار البيانات المدفوعة من قبل المجتمع، المستخدمة لمحاذاة النماذج.
تدريب الولاء (Loyalty Training): ضمان أن يحتفظ النموذج بعملية تدريب تتماشى مع نوايا المجتمع.
يوفر نظام السلسلة الشفافية والتحكم اللامركزي للبروتوكول، مما يضمن ملكية القطع الفنية للذكاء الاصطناعي، وتتبع الاستخدام، وتوزيع العائدات، والحكم العادل. الهيكل المحدد مقسم إلى أربع طبقات:
طبقة التخزين: تخزين أوزان النموذج ومعلومات تسجيل البصمات؛
طبقة التوزيع: نموذج التحكم في مدخلات استدعاء العقد المصرح به؛
طبقة الوصول: التحقق من تفويض المستخدم من خلال إثبات الأذونات؛
طبقة التحفيز: ستقوم عقدة توجيه العوائد بتوزيع المدفوعات في كل استدعاء على المدربين، والمطورين، والمحققين.
إطار نموذج OML
إطار OML (الفتح Open، القابل للت Monetizable، الولاء Loyal) هو فكرة أساسية اقترحتها Sentient، تهدف إلى توفير حماية ملكية واضحة وآليات تحفيز اقتصادية لنماذج الذكاء الاصطناعي مفتوحة المصدر. من خلال الجمع بين التقنيات داخل السلسلة والتشفير الأصلي للذكاء الاصطناعي، يتمتع بالخصائص التالية:
الانفتاح: يجب أن يكون النموذج مفتوح المصدر، ويجب أن تكون الشفرة وبنية البيانات شفافة، مما يسهل على المجتمع إعادة الإنتاج والتدقيق والتحسين.
التسييل: كل استدعاء لنموذج سيؤدي إلى تفعيل تدفق الإيرادات، وستقوم العقود داخل السلسلة بتوزيع الإيرادات على المدربين، والمطورين، والمتحققين.
الولاء: النموذج ينتمي إلى مجتمع المساهمين، اتجاه الترقية والحكم تحدده DAO، الاستخدام والتعديل يخضعان لآلية التشفير.
التشفير الأصلي بالذكاء الاصطناعي (AI-native Cryptography)
التشفير الأصلي المدعوم بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وبنية التدفقات المنخفضة الأبعاد، وخصائص القابلية للاشتقاق في النماذج، لتطوير آلية أمان خفيفة الوزن "قابلة للتحقق ولكن لا يمكن إزالتها". التقنية الأساسية لها هي:
تضمين بصمة الإصبع: إدراج مجموعة من أزواج مفاتيح استعلام-استجابة مخفية أثناء التدريب لتشكيل توقيع فريد للنموذج؛
بروتوكول التحقق من الملكية: تحقق من بقاء بصمة الإصبع من خلال كاشف طرف ثالث (Prover) على شكل استفسار query؛
آلية استدعاء الإذن: يجب الحصول على "شهادة الإذن" الصادرة عن مالك النموذج قبل الاستدعاء، ثم يقوم النظام بتفويض النموذج لفك تشفير الإدخال وإرجاع الإجابة الدقيقة.
يمكن تحقيق "تفويضات استدعاء قائمة على السلوك + التحقق من الانتماء" بهذه الطريقة دون تكلفة إعادة تشفير.
إطار تأكيد النموذج والتنفيذ الآمن
Sentient الحالية تعتمد على Melange مزيج الأمان: من خلال تأكيد الهوية بالبصمة، وتنفيذ TEE، وتقاسم الأرباح من العقود داخل السلسلة. حيث إن طريقة البصمة هي خط رئيسي تم تنفيذه بواسطة OML 1.0، وتؤكد على مفهوم "الأمان المتفائل (Optimistic Security)", أي الافتراض بالامتثال، والكشف عن المخالفات ومعاقبتها.
آلية بصمة الإصبع هي التنفيذ الرئيسي لـ OML، حيث يتم ذلك من خلال تضمين "سؤال-جواب" محدد، مما يسمح للنموذج بإنشاء توقيع فريد خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالكي النموذج التحقق من الملكية، ومنع النسخ غير المصرح به والتجارية. لا تحمي هذه الآلية حقوق مطوري النموذج فحسب، بل توفر أيضًا سجلات قابلة للتتبع داخل السلسلة لسلوك استخدام النموذج.
بالإضافة إلى ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، الذي يستخدم بيئات التنفيذ الموثوقة (مثل AWS Nitro Enclaves) لضمان أن النموذج يستجيب فقط للطلبات المصرح بها، مما يمنع الوصول والاستخدام غير المصرح به. على الرغم من أن TEE يعتمد على الأجهزة ويحتوي على بعض المخاطر الأمنية، إلا أن مزاياه في الأداء العالي والوقت الحقيقي تجعل منه التقنية الأساسية لنشر النماذج الحالية.
في المستقبل، تخطط Sentient لإدخال تقنيات إثبات المعرفة الصفرية (ZK) والتشفير المتجانس بالكامل (FHE) لتعزيز حماية الخصوصية وقابلية التحقق، مما يوفر نشرًا أكثر نضجًا لنماذج الذكاء الاصطناعي بشكل لامركزي.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
5
مشاركة
تعليق
0/400
JustHereForAirdrops
· منذ 5 س
أنا ذاهب لتغيير قواعد توزيع مجاني!
شاهد النسخة الأصليةرد0
HallucinationGrower
· منذ 13 س
لقد نمت بعد أن نظرت مرتين.
شاهد النسخة الأصليةرد0
BearMarketSurvivor
· منذ 16 س
هل هناك حقاً أي طبقة ذكاء اصطناعي؟
شاهد النسخة الأصليةرد0
ApeWithNoChain
· منذ 16 س
فاز الأخ مباشرةً واستعد لدخل يومي قدره 50 ألفًا
شاهد النسخة الأصليةرد0
FunGibleTom
· منذ 16 س
ما هو الشيء المثير للاهتمام في احتكار الرأسماليين للذكاء الاصطناعي؟
تحليل عميق لستة مشاريع في مجال AI Layer1 استكشاف اتجاهات جديدة في تطور DeAI داخل السلسلة
تقرير بحث AI Layer1: البحث عن التربة الخصبة داخل السلسلة لـ DeAI
نظرة عامة
في السنوات الأخيرة، قامت الشركات التكنولوجية الكبرى مثل OpenAI وAnthropic وGoogle وMeta بدفع التطور السريع لنماذج اللغة الكبيرة (LLM). لقد أظهرت نماذج اللغة الكبيرة قدرات غير مسبوقة في جميع المجالات، مما وسع بشكل كبير من خيال البشرية، وحتى في بعض السيناريوهات، أظهرت قدرة على استبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات يقع في أيدي عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رأس المال الضخم والسيطرة على موارد الحوسبة باهظة الثمن، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل من الصعب على الغالبية العظمى من المطورين وفرق الابتكار التنافس معها.
في نفس الوقت، خلال المرحلة المبكرة من التطور السريع للذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الاختراقات والراحة التي تجلبها التكنولوجيا، بينما تكون الاهتمامات المتعلقة بحماية الخصوصية، والشفافية، والأمان أقل نسبيًا. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على التطور الصحي لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستصبح الجدل حول ما إذا كان الذكاء الاصطناعي "للخير" أم "للشر" أكثر وضوحًا، وفي ظل الدافع الربحي للعمالقة المركزيين، غالبًا ما يفتقرون إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تقدم تقنية البلوكشين، بفضل خصائصها المتمثلة في اللامركزية والشفافية ومقاومة الرقابة، إمكانيات جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. في الوقت الحالي، ظهرت العديد من تطبيقات "Web3 AI" على بعض سلاسل البلوكشين الرائجة. ولكن من خلال التحليل المتعمق، يمكن ملاحظة أن هذه المشاريع لا تزال تواجه العديد من المشكلات: من ناحية، فإن درجة اللامركزية محدودة، حيث لا تزال النقاط الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، مما يجعل من الصعب دعم نظام بيئي مفتوح بالمعنى الحقيقي؛ ومن ناحية أخرى، مقارنةً بمنتجات الذكاء الاصطناعي في عالم Web2، لا يزال الذكاء الاصطناعي داخل السلسلة محدودًا من حيث قدرة النماذج، واستخدام البيانات، وسيناريوهات التطبيق، مما يتطلب تحسين عمق الابتكار واتساعه.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، ولتمكين blockchain من استيعاب تطبيقات الذكاء الاصطناعي على نطاق واسع بشكل آمن وفعال وديمقراطي، والتنافس مع الحلول المركزية من حيث الأداء، نحتاج إلى تصميم blockchain Layer1 مصممة خصيصًا للذكاء الاصطناعي. سيؤدي ذلك إلى توفير أساس قوي للابتكار المفتوح في الذكاء الاصطناعي، والديمقراطية في الحوكمة، وأمان البيانات، مما يعزز ازدهار生态 الذكاء الاصطناعي اللامركزي.
الخصائص الأساسية لـ AI Layer 1
AI Layer 1 كشبكة بلوكتشين مصممة خصيصًا لتطبيقات الذكاء الاصطناعي، فإن البنية التحتية الأساسية وتصميم الأداء تركز بشكل وثيق حول متطلبات مهام الذكاء الاصطناعي، بهدف دعم التنمية المستدامة والازدهار للنظام البيئي الذكي داخل السلسلة. على وجه التحديد، يجب أن تتمتع AI Layer 1 بالقدرات الأساسية التالية:
آلية الحوافز الفعالة وآلية الإجماع اللامركزية تكمن جوهر AI Layer 1 في بناء شبكة مفتوحة لمشاركة الموارد مثل القدرة الحاسوبية والتخزين. على عكس تركيز عقد blockchain التقليدية بشكل أساسي على تسجيل الدفتر، تحتاج عقد AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يتعين عليها توفير القدرة الحاسوبية، وإكمال تدريب ونمذجة الذكاء الاصطناعي، بالإضافة إلى المساهمة في التخزين والبيانات وعرض النطاق الترددي، مما يكسر احتكار الهيئات المركزية في البنية التحتية للذكاء الاصطناعي. وهذا يضع متطلبات أعلى على آلية الإجماع والحوافز الأساسية: يجب أن تكون AI Layer 1 قادرة على تقييم ومكافأة والتحقق بدقة من المساهمات الفعلية للعقد في مهام الاستدلال والتدريب في الذكاء الاصطناعي، مما يحقق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتقليل التكلفة الإجمالية للقدرة الحاسوبية بشكل فعال.
أداء عالي ممتاز وقدرة دعم المهام المتنوعة تتطلب مهام الذكاء الاصطناعي، وخاصة تدريب واستدلال LLM، متطلبات عالية من حيث الأداء الحاسوبي وقدرة المعالجة المتوازية. علاوة على ذلك، غالبًا ما يتطلب النظام البيئي للذكاء الاصطناعي داخل السلسلة دعم أنواع متعددة ومتنوعة من المهام، بما في ذلك هياكل نماذج مختلفة، معالجة البيانات، الاستدلال، والتخزين، وغيرها من السيناريوهات المتنوعة. يجب أن يتم تحسين Layer 1 للذكاء الاصطناعي بعمق على مستوى البنية التحتية لتلبية متطلبات السعة العالية، وانخفاض زمن الاستجابة، والمعالجة المتوازية المرنة، مع توفير دعم أصلي للموارد الحاسوبية المتنوعة، لضمان تشغيل مهام الذكاء الاصطناعي بكفاءة، وتحقيق التوسع السلس من "المهام الفردية" إلى "الأنظمة البيئية المعقدة والمتنوعة".
القابلية للتحقق وضمان المخرجات الموثوقة يجب على AI Layer 1 ألا يمنع فقط سوء استخدام النموذج، وتعديل البيانات، وغيرها من المخاطر الأمنية، بل يجب أيضًا أن يضمن من خلال آلية أساسية القابلية للتحقق من نتائج AI وتوافقها. من خلال دمج بيئات التنفيذ الموثوقة (TEE) ، وإثباتات المعرفة الصفرية (ZK) ، والحسابات الآمنة متعددة الأطراف (MPC) وغيرها من التقنيات المتقدمة، يمكن للمنصة أن تجعل كل استنتاج من النموذج، والتدريب، وعملية معالجة البيانات قابلة للتحقق بشكل مستقل، مما يضمن نزاهة وشفافية نظام AI. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين على فهم منطق ومرجع مخرجات AI، مما يحقق "ما تحصل عليه هو ما ترغب فيه"، ويعزز ثقة المستخدمين ورضاهم عن منتجات AI.
حماية خصوصية البيانات تتعلق تطبيقات الذكاء الاصطناعي غالبًا ببيانات حساسة للمستخدمين، وفي مجالات مثل المالية والطب والتواصل الاجتماعي، تعتبر حماية خصوصية البيانات أمرًا حاسمًا. يجب أن يعتمد AI Layer 1 على تقنيات معالجة البيانات المستندة إلى التشفير، وبروتوكولات حساب الخصوصية، وإدارة أذونات البيانات، مع ضمان القابلية للتحقق، لضمان أمان البيانات خلال جميع مراحل الاستدلال والتدريب والتخزين، ومنع تسرب البيانات وإساءة استخدامها بشكل فعال، وإزالة مخاوف المستخدمين بشأن أمان البيانات.
القدرة القوية على دعم وتحمل النظام البيئي كمنصة بنية تحتية من Layer 1 الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة التقنية، ولكن أيضًا بتوفير أدوات تطوير متكاملة، SDK مدمجة، دعم العمليات، وآليات تحفيز للمطورين، مشغلي العقد، ومقدمي خدمات الذكاء الاصطناعي وغيرهم من المشاركين في النظام البيئي. من خلال تحسين استمرارية قابلية استخدام المنصة وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة، مما يحقق الازدهار المستدام للنظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستتناول هذه المقالة بالتفصيل ستة مشاريع تمثيلية من Layer1 للذكاء الاصطناعي بما في ذلك Sentient و Sahara AI و Ritual و Gensyn و Bittensor و 0G، حيث سيتم تنظيم أحدث التطورات في هذا المجال وتحليل حالة تطوير المشاريع، بالإضافة إلى مناقشة الاتجاهات المستقبلية.
Sentient: بناء نموذج AI مفتوح المصدر لامركزي موثوق
نظرة عامة على المشروع
Sentient هو منصة بروتوكول مفتوح المصدر، تعمل على إنشاء سلسلة بلوكشين AI Layer1 ( المرحلة الأولية هي Layer 2، ثم ستنتقل إلى Layer 1)، من خلال دمج AI Pipeline وتقنية البلوكشين، لبناء اقتصاد ذكاء اصطناعي لامركزي. الهدف الأساسي هو حل مشاكل ملكية النماذج، تتبع الاستدعاءات وتوزيع القيمة في سوق LLM المركزي من خلال إطار "OML" (مفتوح، قابل للربح، موثوق) مما يجعل نماذج الذكاء الاصطناعي تحقق هيكل ملكية داخل السلسلة، وشفافية الاستدعاء، وتوزيع القيمة. رؤية Sentient هي تمكين أي شخص من بناء، التعاون، امتلاك وتسييل منتجات الذكاء الاصطناعي، مما يعزز شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال السلسلة من جميع أنحاء العالم، ويهدف إلى بناء منصة AGI مدفوعة بالمجتمع ومفتوحة المصدر وقابلة للتحقق. يتضمن الأعضاء الرئيسيون البروفيسور Pramod Viswanath من جامعة برينستون والبروفيسور Himanshu Tyagi من المعهد الهندي للعلوم، اللذان يتوليان مسؤولية أمان الذكاء الاصطناعي وحماية الخصوصية، بينما يقود Sandeep Nailwal، المؤسس المشارك لشركة Polygon، الاستراتيجية السلسلة وتخطيط النظام البيئي. يمتد خلفية أعضاء الفريق عبر شركات معروفة مثل Meta وCoinbase وPolygon، بالإضافة إلى جامعات مرموقة مثل جامعة برينستون والمعهد الهندي للتكنولوجيا، ويغطي مجالات AI/ML وNLP ورؤية الكمبيوتر، ويتعاونون لدفع المشروع نحو التنفيذ.
كمشروع ريادة أعمال ثانٍ لمؤسس Polygon المشارك Sandeep Nailwal، جاءت Sentient منذ البداية مع هالة خاصة، حيث تمتلك موارد غنية، وشبكات، ووعي بالسوق، مما يوفر دعمًا قويًا لتطوير المشروع. في منتصف عام 2024، أكملت Sentient جولة تمويل أولية بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، بالإضافة إلى عدد من المؤسسات الاستثمارية الأخرى بما في ذلك Delphi وHashkey وSpartan وغيرها من شركات رأس المال المغامر المعروفة.
تصميم الهيكل والطبقة التطبيقية
طبقة البنية التحتية
البنية الأساسية
يتكون الهيكل الأساسي لـ Sentient من جزئين: أنبوب الذكاء الاصطناعي (AI Pipeline) ونظام داخل السلسلة.
أنابيب الذكاء الاصطناعي هي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتحتوي على عمليتين رئيسيتين:
يوفر نظام السلسلة الشفافية والتحكم اللامركزي للبروتوكول، مما يضمن ملكية القطع الفنية للذكاء الاصطناعي، وتتبع الاستخدام، وتوزيع العائدات، والحكم العادل. الهيكل المحدد مقسم إلى أربع طبقات:
إطار نموذج OML
إطار OML (الفتح Open، القابل للت Monetizable، الولاء Loyal) هو فكرة أساسية اقترحتها Sentient، تهدف إلى توفير حماية ملكية واضحة وآليات تحفيز اقتصادية لنماذج الذكاء الاصطناعي مفتوحة المصدر. من خلال الجمع بين التقنيات داخل السلسلة والتشفير الأصلي للذكاء الاصطناعي، يتمتع بالخصائص التالية:
التشفير الأصلي بالذكاء الاصطناعي (AI-native Cryptography)
التشفير الأصلي المدعوم بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وبنية التدفقات المنخفضة الأبعاد، وخصائص القابلية للاشتقاق في النماذج، لتطوير آلية أمان خفيفة الوزن "قابلة للتحقق ولكن لا يمكن إزالتها". التقنية الأساسية لها هي:
يمكن تحقيق "تفويضات استدعاء قائمة على السلوك + التحقق من الانتماء" بهذه الطريقة دون تكلفة إعادة تشفير.
إطار تأكيد النموذج والتنفيذ الآمن
Sentient الحالية تعتمد على Melange مزيج الأمان: من خلال تأكيد الهوية بالبصمة، وتنفيذ TEE، وتقاسم الأرباح من العقود داخل السلسلة. حيث إن طريقة البصمة هي خط رئيسي تم تنفيذه بواسطة OML 1.0، وتؤكد على مفهوم "الأمان المتفائل (Optimistic Security)", أي الافتراض بالامتثال، والكشف عن المخالفات ومعاقبتها.
آلية بصمة الإصبع هي التنفيذ الرئيسي لـ OML، حيث يتم ذلك من خلال تضمين "سؤال-جواب" محدد، مما يسمح للنموذج بإنشاء توقيع فريد خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالكي النموذج التحقق من الملكية، ومنع النسخ غير المصرح به والتجارية. لا تحمي هذه الآلية حقوق مطوري النموذج فحسب، بل توفر أيضًا سجلات قابلة للتتبع داخل السلسلة لسلوك استخدام النموذج.
بالإضافة إلى ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، الذي يستخدم بيئات التنفيذ الموثوقة (مثل AWS Nitro Enclaves) لضمان أن النموذج يستجيب فقط للطلبات المصرح بها، مما يمنع الوصول والاستخدام غير المصرح به. على الرغم من أن TEE يعتمد على الأجهزة ويحتوي على بعض المخاطر الأمنية، إلا أن مزاياه في الأداء العالي والوقت الحقيقي تجعل منه التقنية الأساسية لنشر النماذج الحالية.
في المستقبل، تخطط Sentient لإدخال تقنيات إثبات المعرفة الصفرية (ZK) والتشفير المتجانس بالكامل (FHE) لتعزيز حماية الخصوصية وقابلية التحقق، مما يوفر نشرًا أكثر نضجًا لنماذج الذكاء الاصطناعي بشكل لامركزي.