OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong oleh Data dan Dapat Dikombinasikan dengan Model berdasarkan OP Stack+EigenDA
I. Pendahuluan | Lompatan Lapisan Model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dis类比 dengan bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak bisa dipisahkan. Sejalan dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga telah melalui tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi ( beberapa platform komputasi GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan kasar "mendapatkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
) Model Umum Besar (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter berkisar antara 70B hingga 500B, dan biaya pelatihan bisa mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Spesialis) sebagai suatu paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, yang menggabungkan sedikit data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan khusus di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, tetapi beroperasi dengan memanggil melalui arsitektur Agen, sistem plugin untuk routing dinamis, modul LoRA untuk hot-plug, dan RAG (Retrieval-Augmented Generation) untuk berkolaborasi dengan LLM. Arsitektur ini mempertahankan kemampuan jangkauan luas LLM sambil meningkatkan kinerja profesional melalui modul penyempurnaan, membentuk sistem cerdas komposit yang sangat fleksibel.
Nilai dan batas AI Crypto di tingkat model
Proyek AI Crypto pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), alasan utamanya adalah
Hambatan teknis terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan teknik yang diperlukan untuk melatih Model Dasar sangat besar, saat ini hanya ada raksasa teknologi seperti Amerika Serikat (perusahaan AI tertentu) dan China (perusahaan AI tertentu) yang memiliki kemampuan tersebut.
Keterbatasan ekosistem sumber terbuka: Meskipun model dasar arus utama seperti LLaMA dan Mixtral sudah bersumber terbuka, kunci untuk mendorong terobosan model tetap terfokus pada lembaga penelitian dan sistem rekayasa tertutup, ruang partisipasi proyek berbasis blockchain di tingkat model inti terbatas.
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperluas nilai melalui penyesuaian model bahasa khusus (SLM) yang dipadukan dengan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, hal ini tercermin dalam dua arah inti:
Lapisan Verifikasi Tepercaya: Melalui pencatatan jalur generasi model, kontribusi data, dan penggunaan di blockchain, meningkatkan jejak yang dapat dilacak dan kemampuan anti-tampering dari keluaran AI.
Mekanisme insentif: Dengan menggunakan Token asli, untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan pelaksanaan agen (Agent), membangun siklus positif pelatihan dan layanan model.
Klasifikasi Jenis Model AI dan Analisis Kelayakan Blockchain
Oleh karena itu, dapat dilihat bahwa titik jatuh yang dapat dilakukan untuk proyek Crypto AI berbasis model terutama terfokus pada penyempurnaan ringan SLM kecil, akses dan verifikasi data on-chain dengan arsitektur RAG, serta penyebaran lokal dan insentif model Edge. Dengan menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah ke bawah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model, dapat mencatat sumber kontribusi setiap data dan model dengan jelas dan tidak dapat diubah, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, saat data atau model dipanggil, distribusi hadiah secara otomatis dipicu, mengubah perilaku AI menjadi nilai yang terukur dan dapat diperdagangkan dalam bentuk token, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui suara token, berpartisipasi dalam penetapan aturan dan iterasi, serta menyempurnakan struktur pemerintahan terdesentralisasi.
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang fokus pada mekanisme insentif data dan model di pasar saat ini. Proyek ini pertama kali mengemukakan konsep "Payable AI" yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat dikombinasikan, yang mendorong kolaborasi antara kontributor data, pengembang model, dan pembangun aplikasi AI di platform yang sama, serta mendapatkan keuntungan di atas rantai berdasarkan kontribusi nyata.
OpenLedger menyediakan rangkaian penuh dari "penyediaan data" hingga "penyebaran model" dan "panggilan bagi hasil", dengan modul inti yang mencakup:
Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan LoRA untuk pelatihan fine-tuning dan penyebaran model kustom berbasis LLM sumber terbuka;
OpenLoRA: Mendukung koeksistensi ribuan model, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penyebaran;
PoA(Proof of Attribution):mengukur kontribusi dan distribusi hadiah melalui catatan pemanggilan di blockchain;
Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan divalidasi melalui kolaborasi komunitas;
Platform Usulan Model (Model Proposal Platform): pasar model on-chain yang dapat digabungkan, dapat dipanggil, dan dapat dibayar.
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang didorong oleh data dan dapat dikombinasikan modelnya, mendorong on-chain dari rantai nilai AI.
Dan dalam adopsi teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, untuk membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah dalam eksekusi;
Menyelesaikan di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
Kompatibel EVM: Memudahkan pengembang untuk dengan cepat menerapkan dan memperluas berdasarkan Solidity;
EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, menjamin verifikasi data.
Dibandingkan dengan blockchain tertentu yang lebih berfokus pada lapisan dasar, mengutamakan kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan rantai AI khusus yang ditujukan untuk insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat dilacak, dapat digabungkan, dan berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan model pengelolaan platform tertentu, penggunaan penagihan ala platform tertentu, dan antarmuka dapat digabungkan di atas rantai ala platform infrastruktur tertentu, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
) 3.1 Model Factory, tanpa kode model pabrik
ModelFactory adalah platform penyesuaian model bahasa besar (LLM) di ekosistem OpenLedger. Berbeda dengan kerangka penyesuaian tradisional, ModelFactory menyediakan antarmuka grafis murni yang memungkinkan operasi tanpa alat baris perintah atau integrasi API. Pengguna dapat melakukan penyesuaian model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terpadu untuk otorisasi data, pelatihan model, dan penerapan, dengan proses inti yang mencakup:
Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data otomatis terintegrasi ke dalam antarmuka pelatihan model.
Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), konfigurasi hiperparameter melalui GUI.
Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
Evaluasi dan Penyebaran Model: Alat evaluasi bawaan, mendukung ekspor penyebaran atau pemanggilan berbagi ekosistem.
Antarmuka verifikasi interaktif: Menyediakan antarmuka berbasis obrolan, memudahkan pengujian langsung kemampuan tanya jawab model.
RAG menghasilkan jejak: Menjawab dengan sumber yang dirujuk, meningkatkan kepercayaan dan dapat diaudit.
Arsitektur Sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi penerapan, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman dan terkontrol, interaksi waktu nyata, serta dapat menghasilkan pendapatan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Seri LLaMA: Ekosistem terluas, komunitas aktif, kinerja umum yang kuat, merupakan salah satu model dasar sumber terbuka yang paling utama saat ini.
Mistral: Arsitektur efisien, performa inferensi sangat baik, cocok untuk penerapan yang fleksibel dan sumber daya terbatas.
Qwen: Produk dari perusahaan tertentu, menunjukkan kinerja yang baik dalam tugas-tugas berbahasa Mandarin, memiliki kemampuan yang komprehensif, cocok sebagai pilihan utama bagi pengembang domestik.
ChatGLM: Efek percakapan dalam bahasa Mandarin sangat menonjol, cocok untuk layanan pelanggan vertikal dan skenario lokalisasi.
Deepseek: Unggul dalam menghasilkan kode dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
Gemma: Model ringan yang diluncurkan oleh suatu perusahaan, dengan struktur yang jelas, mudah untuk dipahami dan diuji dengan cepat.
Falcon: Pernah menjadi patokan kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi aktivitas komunitas telah menurun.
BLOOM: Dukungan multibahasa yang kuat, tetapi kinerja inferensi yang lemah, cocok untuk penelitian yang mencakup banyak bahasa.
GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk penggunaan implementasi yang sebenarnya.
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang dibuat berdasarkan batasan realitas dari penyebaran di rantai (biaya inferensi, adaptasi RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:
Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi, distribusi, dan pendapatan model;
Untuk platform: membentuk sirkulasi aset model dan ekosistem kombinasi;
Untuk pengguna: Anda dapat menggabungkan penggunaan model atau Agen seperti memanggil API.
) 3.2 OpenLoRA, asetisasi on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, dengan cara menyisipkan "matriks peringkat rendah" ke dalam model besar yang telah dilatih sebelumnya untuk mempelajari tugas baru, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya dalam tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli dan hanya melatih matriks parameter baru yang disisipkan." Dengan parameter yang efisien, pelatihan yang cepat, dan penerapan yang fleksibel, ini adalah metode penyesuaian utama yang paling cocok untuk penerapan dan panggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan dan aspek kunci lainnya, mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan berbiaya rendah:
Modul Penyimpanan LoRA Adapter ### Penyimpanan Adaptor LoRA (: adaptor LoRA yang telah disesuaikan dihosting di OpenLedger, memungkinkan pemuatan sesuai permintaan.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
24 Suka
Hadiah
24
7
Bagikan
Komentar
0/400
MetaDreamer
· 07-10 06:36
Model daya komputasi tidak penting, yang penting adalah data.
Lihat AsliBalas0
ProxyCollector
· 07-09 23:14
Dari hari ini saya mulai menggambar BTC.
Lihat AsliBalas0
NftPhilanthropist
· 07-08 16:48
sebenarnya... hari lain mencoba untuk men-tokenisasi jaringan saraf smh
Lihat AsliBalas0
DeepRabbitHole
· 07-07 08:27
Sudah cukup bermain dengan daya komputasi, kan?
Lihat AsliBalas0
0xSunnyDay
· 07-07 08:24
Dasar sudah siap, pendanaan akan cepat.
Lihat AsliBalas0
gas_guzzler
· 07-07 08:07
Saya sudah paham, dasarnya masih L2.
Lihat AsliBalas0
gaslight_gasfeez
· 07-07 08:03
Apakah kita masih mendiskusikan lapisan sebelumnya atau fokus pada Daya Komputasi?
OpenLedger membangun ekonomi agen cerdas yang didorong oleh data dengan OP Stack dan EigenDA sebagai fondasi.
OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong oleh Data dan Dapat Dikombinasikan dengan Model berdasarkan OP Stack+EigenDA
I. Pendahuluan | Lompatan Lapisan Model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dis类比 dengan bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak bisa dipisahkan. Sejalan dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga telah melalui tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi ( beberapa platform komputasi GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan kasar "mendapatkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
) Model Umum Besar (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter berkisar antara 70B hingga 500B, dan biaya pelatihan bisa mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Spesialis) sebagai suatu paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, yang menggabungkan sedikit data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan khusus di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, tetapi beroperasi dengan memanggil melalui arsitektur Agen, sistem plugin untuk routing dinamis, modul LoRA untuk hot-plug, dan RAG (Retrieval-Augmented Generation) untuk berkolaborasi dengan LLM. Arsitektur ini mempertahankan kemampuan jangkauan luas LLM sambil meningkatkan kinerja profesional melalui modul penyempurnaan, membentuk sistem cerdas komposit yang sangat fleksibel.
Nilai dan batas AI Crypto di tingkat model
Proyek AI Crypto pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), alasan utamanya adalah
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperluas nilai melalui penyesuaian model bahasa khusus (SLM) yang dipadukan dengan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, hal ini tercermin dalam dua arah inti:
Klasifikasi Jenis Model AI dan Analisis Kelayakan Blockchain
Oleh karena itu, dapat dilihat bahwa titik jatuh yang dapat dilakukan untuk proyek Crypto AI berbasis model terutama terfokus pada penyempurnaan ringan SLM kecil, akses dan verifikasi data on-chain dengan arsitektur RAG, serta penyebaran lokal dan insentif model Edge. Dengan menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah ke bawah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model, dapat mencatat sumber kontribusi setiap data dan model dengan jelas dan tidak dapat diubah, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, saat data atau model dipanggil, distribusi hadiah secara otomatis dipicu, mengubah perilaku AI menjadi nilai yang terukur dan dapat diperdagangkan dalam bentuk token, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui suara token, berpartisipasi dalam penetapan aturan dan iterasi, serta menyempurnakan struktur pemerintahan terdesentralisasi.
![OpenLedgerKedalaman研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang fokus pada mekanisme insentif data dan model di pasar saat ini. Proyek ini pertama kali mengemukakan konsep "Payable AI" yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat dikombinasikan, yang mendorong kolaborasi antara kontributor data, pengembang model, dan pembangun aplikasi AI di platform yang sama, serta mendapatkan keuntungan di atas rantai berdasarkan kontribusi nyata.
OpenLedger menyediakan rangkaian penuh dari "penyediaan data" hingga "penyebaran model" dan "panggilan bagi hasil", dengan modul inti yang mencakup:
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang didorong oleh data dan dapat dikombinasikan modelnya, mendorong on-chain dari rantai nilai AI.
Dan dalam adopsi teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, untuk membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibandingkan dengan blockchain tertentu yang lebih berfokus pada lapisan dasar, mengutamakan kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan rantai AI khusus yang ditujukan untuk insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat dilacak, dapat digabungkan, dan berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan model pengelolaan platform tertentu, penggunaan penagihan ala platform tertentu, dan antarmuka dapat digabungkan di atas rantai ala platform infrastruktur tertentu, mendorong jalur realisasi "model sebagai aset".
![OpenLedgerKedalaman研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济])https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
) 3.1 Model Factory, tanpa kode model pabrik
ModelFactory adalah platform penyesuaian model bahasa besar (LLM) di ekosistem OpenLedger. Berbeda dengan kerangka penyesuaian tradisional, ModelFactory menyediakan antarmuka grafis murni yang memungkinkan operasi tanpa alat baris perintah atau integrasi API. Pengguna dapat melakukan penyesuaian model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terpadu untuk otorisasi data, pelatihan model, dan penerapan, dengan proses inti yang mencakup:
Arsitektur Sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi penerapan, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman dan terkontrol, interaksi waktu nyata, serta dapat menghasilkan pendapatan secara berkelanjutan.
![OpenLedger Kedalaman研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang dibuat berdasarkan batasan realitas dari penyebaran di rantai (biaya inferensi, adaptasi RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:
![OpenLedgerKedalaman研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济])https://img-cdn.gateio.im/webp-social/moments-909dc3f796ad6aa44a1c97a51ade4193.webp(
) 3.2 OpenLoRA, asetisasi on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, dengan cara menyisipkan "matriks peringkat rendah" ke dalam model besar yang telah dilatih sebelumnya untuk mempelajari tugas baru, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya dalam tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli dan hanya melatih matriks parameter baru yang disisipkan." Dengan parameter yang efisien, pelatihan yang cepat, dan penerapan yang fleksibel, ini adalah metode penyesuaian utama yang paling cocok untuk penerapan dan panggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan dan aspek kunci lainnya, mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan berbiaya rendah: