Проекти Web3 з концепцією ШІ стають привабливими активами на первинному та вторинному ринках.
Можливості Web3 у сфері штучного інтелекту виявляються в: використанні розподілених стимулів для координації потенційних постачань у довгому хвості ------ через дані, зберігання та обчислення; в той же час, створення відкритої моделі та децентралізованого ринку AI Agent.
Головна сфера застосування штучного інтелекту в індустрії Web3 - це фінанси на блокчейні (криптоплатежі, торгівля, аналіз даних) та допомога в розробці.
Ефективність AI+Web3 проявляється в їхній взаємодоповнюваності: Web3 має надію протистояти централізації AI, а AI має надію допомогти Web3 вийти за межі.
Останні два роки розвиток ШІ схожий на натиснене прискорення, ця метелика, розпалена Chatgpt, відкрила новий світ генеративного штучного інтелекту, а також на іншому березі Web3 підняла хвилю.
Під впливом концепції ШІ спостерігається помітне підвищення фінансування на ринку криптовалют, який уповільнився. За даними ЗМІ, лише в першій половині 2024 року 64 проекти Web3+AI завершили фінансування, а операційна система на основі штучного інтелекту Zyber365 досягла рекордної суми фінансування у 100 мільйонів доларів у раунді A.
Ринок другого рівня стає більш процвітаючим, дані з одного криптоагрегаторного сайту показують, що всього за трохи більше року загальна капіталізація AI сектора досягла 48,5 мільярда доларів, а обсяг торгів за 24 години наближається до 8,6 мільярда доларів; переваги, принесені прогресом у mainstream AI технологіях, очевидні: після випуску моделі OpenAI Sora для перетворення тексту в відео середня ціна в AI сегменті зросла на 151%; ефект AI також поширився на один з сегментів криптовалют, що залучають капітал, Meme: перша концепція AI Agent MemeCoin ------ GOAT швидко здобула популярність і досягла оцінки в 1,4 мільярда доларів, успішно запустивши бум AI Meme.
Дослідження та теми навколо AI+Web3 також користуються популярністю: від AI+Depin до AI Memecoin, а тепер до AI Agent та AI DAO, FOMO-емоції вже не встигають за швидкістю зміни нових наративів.
AI+Web3, ця комбінація термінів, що переповнена гарячими грошима, трендами та фантазіями майбутнього, неминуче сприймається як шлюб, укладений капіталом, і нам, здавалося б, важко розрізнити під цією розкішною накидкою, чи це поле для спекулянтів, чи переддень вибуху ранку?
Щоб відповісти на це питання, важливе міркування для обох сторін полягає в тому, чи стане краще, якщо буде присутня інша сторона? Чи можна отримати вигоду з моделі іншої сторони? У цій статті ми також намагатимемося подивитися на цю картину, спираючись на досягнення попередників: як Web3 може відігравати роль на різних етапах технологічного стеку AI, а AI може надати Web3 нове життя?
Частина 1 Які можливості у Web3 під стеком AI?
Перш ніж розпочати цю тему, нам потрібно зрозуміти технологічний стек великих моделей ШІ:
Використовуючи більш просту мову, щоб описати весь процес: «велика модель» подібна до людського мозку. На ранній стадії цей мозок належить новонародженій дитині, яка повинна спостерігати та споживати величезну кількість інформації з навколишнього світу, щоб зрозуміти цей світ — це етап «збору» даних. Оскільки комп'ютер не має людських зорових, слухових та інших сенсорних можливостей, на етапі навчання зовнішня маса немаркованої інформації повинна бути перетворена через «попередню обробку» у формат інформації, зрозумілий і придатний для комп'ютера.
Після введення даних ШІ через «навчання» створює модель, яка має здатність розуміти та передбачати, що можна розглядати як процес, у якому немовля поступово розуміє та вивчає навколишній світ. Параметри моделі подібні до мовних навичок немовляти, які постійно коригуються в процесі навчання. Коли вміст навчання починає ділитися на предмети або отримується зворотний зв'язок під час спілкування з людьми та вноситься корекція, це переходить до етапу «додаткового навчання» великої моделі.
Діти, поступово дорослішаючи і навчаючись говорити, можуть у нових розмовах розуміти значення та висловлювати свої почуття і думки. Ця стадія подібна до «висновку» у великих AI моделях, де модель може прогнозувати та аналізувати нові мовні та текстові введення. Немовлята через мовні здібності виражають почуття, описують об'єкти та вирішують різні проблеми, що також подібно до того, як великі AI моделі, завершивши навчання, застосовуються на етапі висновку для виконання різних специфічних завдань, таких як класифікація зображень, розпізнавання мови тощо.
А AI Agent наближається до наступної форми великої моделі ------ здатного незалежно виконувати завдання та переслідувати складні цілі, він не лише має здатність до мислення, а й може пам'ятати, планувати, а також використовувати інструменти для взаємодії зі світом.
Наразі, з огляду на проблеми, пов'язані з AI на різних рівнях, Web3 наразі сформував початкову багаторівневу, взаємопов'язану екосистему, що охоплює всі етапи процесу моделювання AI.
Один. Базовий рівень: обчислювальна потужність та дані Airbnb
Потужність
Наразі одними з найбільших витрат AI є обчислювальні потужності та енергія, необхідні для навчання моделей та інференційних моделей.
Прикладом є те, що LLAMA3 від Meta потребує 16000 графічних процесорів H100, вироблених NVIDIA (це топовий графічний процесор, спеціально розроблений для штучного інтелекту та високопродуктивних обчислювальних навантажень). Для завершення навчання потрібно 30 днів. Ціна на 80 ГБ версію коливається від 30 000 до 40 000 доларів, що вимагає інвестицій у обчислювальне обладнання (GPU + мережеві чіпи) на суму від 400 до 700 мільйонів доларів, при цьому щомісячне навчання споживає 1,6 мільярда кіловат-годин, а витрати на енергію становлять близько 20 мільйонів доларів на місяць.
Розвантаження обчислювальної потужності ШІ є однією з перших областей перетворення Web3 з ШІ ------ DePin (децентралізована фізична інфраструктурна мережа). Наразі один із сайтів даних DePin вже демонструє понад 1400 проектів, серед яких представниками спільного використання потужності GPU є io.net, Aethir, Akash, Render Network тощо.
Основна логіка полягає в тому, що платформа дозволяє особам або суб'єктам, які мають невикористані ресурси GPU, у децентралізованій формі без дозволу вносити свій обчислювальний потенціал. Це підвищує використання невикористаних ресурсів GPU через онлайн-ринок, схожий на Uber або Airbnb, де покупці та продавці взаємодіють, що дозволяє кінцевим користувачам отримувати більш ефективні обчислювальні ресурси за нижчою ціною. Одночасно механізм стейкінгу також забезпечує, що у випадку порушення механізмів контролю якості або переривання мережі, постачальники ресурсів отримають відповідні покарання.
Його особливості полягають у:
Збір вільних ресурсів GPU: постачальниками в основному є надлишкові обчислювальні ресурси незалежних малих і середніх центрів обробки даних, криптомайданчиків та інших операторів, а також апаратура для майнінгу з механізмом консенсусу PoS, така як майнери FileCoin та ETH. Наразі існують також проекти, що прагнуть запустити обладнання з нижчими бар'єрами входу, наприклад, exolab використовує MacBook, iPhone, iPad та інші локальні пристрої для створення мережі обчислювальних потужностей для виконання великих моделей.
Перед довгим хвостом ринку обчислювальних потужностей AI:
a. «З технологічної точки зору» децентралізований ринок обчислювальних потужностей більше підходить для етапів висновку. Навчання значно більше залежить від обробної спроможності даних, яку забезпечує надвеликий кластер GPU, тоді як для висновку вимоги до обчислювальної продуктивності GPU відносно нижчі, наприклад, Aethir зосереджується на рендерингу з низькою затримкою та застосуваннях AI для висновків.
b. «З точки зору попиту» малі та середні замовники потужностей не будуть окремо навчати свої великі моделі, а лише виберуть оптимізацію та доопрацювання навколо кількох провідних великих моделей, і ці сценарії природно підходять для розподілених невикористаних обчислювальних ресурсів.
Децентралізоване володіння: Технологічне значення блокчейну полягає в тому, що власники ресурсів завжди зберігають контроль над своїми ресурсами, гнучко коригуючи їх відповідно до потреб, одночасно отримуючи прибуток.
Дані
Дані є основою ШІ. Якщо немає даних, обчислення стає безглуздим, як водорості на поверхні води, а зв'язок між даними та моделлю подібний до приказки "Сміття на вході, сміття на виході". Кількість даних та якість вводу визначають якість виходу кінцевої моделі. Щодо навчання сучасних AI-моделей, дані визначають мовні можливості моделі, її здатність до розуміння, навіть цінності та гуманістичні прояви. Наразі основні труднощі з потребами в даних для ШІ зосереджені на чотирьох аспектах:
Голод до даних: навчання AI моделей залежить від великої кількості даних. Відкриті дані показують, що параметрів, використаних для навчання GPT-4 OpenAI, досягло трильйонного рівня.
Якість даних: з інтеграцією ШІ в різні галузі виникають нові вимоги до якості даних, зокрема до своєчасності, різноманітності даних, спеціалізації вертикальних даних і нових джерел даних, таких як емоції з соціальних медіа.
Проблеми конфіденційності та відповідності: в даний час різні країни та компанії поступово звертають увагу на важливість якісних наборів даних і вводять обмеження на їх збір.
Високі витрати на обробку даних: велика кількість даних, складний процес обробки. Відкриті дані показують, що більше 30% витрат на НДДКР у компаніях ШІ йдуть на збір та обробку базових даних.
На даний момент рішення web3 проявляються в чотирьох основних аспектах:
Збір даних: безкоштовно надані дані з реального світу швидко вичерпуються, витрати компаній штучного інтелекту на дані зростають з кожним роком. Але водночас ці витрати не повертаються до справжніх contributors даних, платформи повністю користуються створеною даними цінністю, наприклад, Reddit отримав 203 мільйони доларів доходу завдяки угодам про ліцензування даних з компаніями штучного інтелекту.
Дати можливість користувачам, які дійсно вносять внесок, також брати участь у створенні цінності, що виникає з даних, а також отримувати більш приватні та цінні дані від користувачів за допомогою розподіленої мережі та механізмів стимулювання, є баченням Web3.
Grass є децентралізованим рівнем даних та мережею, користувачі можуть запускати вузли Grass, вносячи свій вільний пропускну здатність та релейний трафік для захоплення реальних даних з усього Інтернету та отримувати токенні винагороди;
Vana ввела унікальну концепцію пулу ліквідності даних (DLP), де користувачі можуть завантажувати свої приватні дані (такі як історія покупок, звички перегляду, активність у соціальних мережах тощо) до певного DLP і гнучко вибирати, чи дозволяти конкретним третім сторонам використовувати ці дані;
У PublicAI користувач може використовувати #AI 或#Web3 як категорію на X та @PublicAI для збору даних.
Попередня обробка даних: під час обробки даних в AI, оскільки зібрані дані зазвичай є шумними і містять помилки, їх необхідно очистити і перетворити в придатний формат до навчання моделі, що включає стандартизацію, фільтрацію та обробку відсутніх значень повторювальних завдань. Ця фаза є однією з небагатьох ручних етапів в індустрії AI, в результаті чого виникла професія спеціаліста з маркування даних. З підвищенням вимог моделей до якості даних, поріг входження для спеціалістів з маркування даних також підвищується, і це завдання природно підходить для децентралізованих механізмів стимулювання Web3.
Наразі Grass та OpenLayer обидва розглядають можливість приєднання до цього ключового етапу позначення даних.
Synesis запропонував концепцію «Train2earn», підкреслюючи якість даних, користувачі можуть отримувати винагороди, надаючи помічені дані, коментарі або інші форми введення.
Проект маркування даних Sapien ігровизує завдання маркування і дозволяє користувачам ставити на кон бали, щоб заробити більше балів.
Приватність даних та безпека: потрібно роз'яснити, що приватність даних і безпека - це два різні поняття. Приватність даних стосується обробки чутливих даних, тоді як безпека даних захищає інформацію від несанкціонованого доступу, знищення та крадіжки. Таким чином, переваги технологій приватності Web3 та потенційні сфери застосування виявляються в двох аспектах: (1) навчання на чутливих даних; (2) співпраця з даними: кілька власників даних можуть спільно брати участь у навчанні ШІ, не ділячись своїми вихідними даними.
Серед поширених технологій конфіденційності у Web3 наразі є:
Достовірне виконуване середовище ( TEE ), наприклад, Super Protocol;
Повна гомоморфна криптографія (FHE), наприклад BasedAI, Fhenix.io або Inco Network;
Технологія нульового знання (zk), така як Reclaim Protocol, використовує технологію zkTLS для генерації доказів нульового знання трафіку HTTPS, що дозволяє користувачам безпечно імпортувати дані про активність, репутацію та ідентичність з зовнішніх сайтів, не розкриваючи чутливу інформацію.
Проте наразі ця сфера все ще знаходиться на ранній стадії, більшість проектів ще в процесі дослідження, одним із сучасних викликів є надто високі витрати на обчислення, деякі приклади:
zkML рамка
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
8 лайків
Нагородити
8
7
Поділіться
Прокоментувати
0/400
NestedFox
· 12год тому
Розпочалися вже? Зараз проекти використовують ШІ.
Переглянути оригіналвідповісти на0
TokenToaster
· 12год тому
Це всього лише спекуляція.
Переглянути оригіналвідповісти на0
CryptoSurvivor
· 12год тому
Ця хвиля стабільна. Більше працюйте з монетами, пов'язаними з ШІ.
Переглянути оригіналвідповісти на0
GateUser-cff9c776
· 12год тому
web3 ще хоче врятувати ai? Котра з цих децентралізацій Шредінгера
Переглянути оригіналвідповісти на0
DaoGovernanceOfficer
· 12год тому
*с sigh* емпірично кажучи, це просто театр децентралізації 2.0
Переглянути оригіналвідповісти на0
GasFeeWhisperer
· 12год тому
криптосвіт справді скрізь присутній.
Переглянути оригіналвідповісти на0
ShibaOnTheRun
· 12год тому
Справжній аромат. Хто може встояти перед спокусою грошей?
AI+Web3融合:探索 Децентралізація Обчислювальна потужність与数据的新机遇
AI+Web3: Вежі та площі
ТЛ; ДОКТОР
Проекти Web3 з концепцією ШІ стають привабливими активами на первинному та вторинному ринках.
Можливості Web3 у сфері штучного інтелекту виявляються в: використанні розподілених стимулів для координації потенційних постачань у довгому хвості ------ через дані, зберігання та обчислення; в той же час, створення відкритої моделі та децентралізованого ринку AI Agent.
Головна сфера застосування штучного інтелекту в індустрії Web3 - це фінанси на блокчейні (криптоплатежі, торгівля, аналіз даних) та допомога в розробці.
Ефективність AI+Web3 проявляється в їхній взаємодоповнюваності: Web3 має надію протистояти централізації AI, а AI має надію допомогти Web3 вийти за межі.
! AI+Web3: Вежі та Плази
Вступ
Останні два роки розвиток ШІ схожий на натиснене прискорення, ця метелика, розпалена Chatgpt, відкрила новий світ генеративного штучного інтелекту, а також на іншому березі Web3 підняла хвилю.
Під впливом концепції ШІ спостерігається помітне підвищення фінансування на ринку криптовалют, який уповільнився. За даними ЗМІ, лише в першій половині 2024 року 64 проекти Web3+AI завершили фінансування, а операційна система на основі штучного інтелекту Zyber365 досягла рекордної суми фінансування у 100 мільйонів доларів у раунді A.
Ринок другого рівня стає більш процвітаючим, дані з одного криптоагрегаторного сайту показують, що всього за трохи більше року загальна капіталізація AI сектора досягла 48,5 мільярда доларів, а обсяг торгів за 24 години наближається до 8,6 мільярда доларів; переваги, принесені прогресом у mainstream AI технологіях, очевидні: після випуску моделі OpenAI Sora для перетворення тексту в відео середня ціна в AI сегменті зросла на 151%; ефект AI також поширився на один з сегментів криптовалют, що залучають капітал, Meme: перша концепція AI Agent MemeCoin ------ GOAT швидко здобула популярність і досягла оцінки в 1,4 мільярда доларів, успішно запустивши бум AI Meme.
Дослідження та теми навколо AI+Web3 також користуються популярністю: від AI+Depin до AI Memecoin, а тепер до AI Agent та AI DAO, FOMO-емоції вже не встигають за швидкістю зміни нових наративів.
AI+Web3, ця комбінація термінів, що переповнена гарячими грошима, трендами та фантазіями майбутнього, неминуче сприймається як шлюб, укладений капіталом, і нам, здавалося б, важко розрізнити під цією розкішною накидкою, чи це поле для спекулянтів, чи переддень вибуху ранку?
Щоб відповісти на це питання, важливе міркування для обох сторін полягає в тому, чи стане краще, якщо буде присутня інша сторона? Чи можна отримати вигоду з моделі іншої сторони? У цій статті ми також намагатимемося подивитися на цю картину, спираючись на досягнення попередників: як Web3 може відігравати роль на різних етапах технологічного стеку AI, а AI може надати Web3 нове життя?
Частина 1 Які можливості у Web3 під стеком AI?
Перш ніж розпочати цю тему, нам потрібно зрозуміти технологічний стек великих моделей ШІ:
Використовуючи більш просту мову, щоб описати весь процес: «велика модель» подібна до людського мозку. На ранній стадії цей мозок належить новонародженій дитині, яка повинна спостерігати та споживати величезну кількість інформації з навколишнього світу, щоб зрозуміти цей світ — це етап «збору» даних. Оскільки комп'ютер не має людських зорових, слухових та інших сенсорних можливостей, на етапі навчання зовнішня маса немаркованої інформації повинна бути перетворена через «попередню обробку» у формат інформації, зрозумілий і придатний для комп'ютера.
Після введення даних ШІ через «навчання» створює модель, яка має здатність розуміти та передбачати, що можна розглядати як процес, у якому немовля поступово розуміє та вивчає навколишній світ. Параметри моделі подібні до мовних навичок немовляти, які постійно коригуються в процесі навчання. Коли вміст навчання починає ділитися на предмети або отримується зворотний зв'язок під час спілкування з людьми та вноситься корекція, це переходить до етапу «додаткового навчання» великої моделі.
Діти, поступово дорослішаючи і навчаючись говорити, можуть у нових розмовах розуміти значення та висловлювати свої почуття і думки. Ця стадія подібна до «висновку» у великих AI моделях, де модель може прогнозувати та аналізувати нові мовні та текстові введення. Немовлята через мовні здібності виражають почуття, описують об'єкти та вирішують різні проблеми, що також подібно до того, як великі AI моделі, завершивши навчання, застосовуються на етапі висновку для виконання різних специфічних завдань, таких як класифікація зображень, розпізнавання мови тощо.
А AI Agent наближається до наступної форми великої моделі ------ здатного незалежно виконувати завдання та переслідувати складні цілі, він не лише має здатність до мислення, а й може пам'ятати, планувати, а також використовувати інструменти для взаємодії зі світом.
! AI+Web3: Вежі та Квадрати
Наразі, з огляду на проблеми, пов'язані з AI на різних рівнях, Web3 наразі сформував початкову багаторівневу, взаємопов'язану екосистему, що охоплює всі етапи процесу моделювання AI.
Один. Базовий рівень: обчислювальна потужність та дані Airbnb
Потужність
Наразі одними з найбільших витрат AI є обчислювальні потужності та енергія, необхідні для навчання моделей та інференційних моделей.
Прикладом є те, що LLAMA3 від Meta потребує 16000 графічних процесорів H100, вироблених NVIDIA (це топовий графічний процесор, спеціально розроблений для штучного інтелекту та високопродуктивних обчислювальних навантажень). Для завершення навчання потрібно 30 днів. Ціна на 80 ГБ версію коливається від 30 000 до 40 000 доларів, що вимагає інвестицій у обчислювальне обладнання (GPU + мережеві чіпи) на суму від 400 до 700 мільйонів доларів, при цьому щомісячне навчання споживає 1,6 мільярда кіловат-годин, а витрати на енергію становлять близько 20 мільйонів доларів на місяць.
Розвантаження обчислювальної потужності ШІ є однією з перших областей перетворення Web3 з ШІ ------ DePin (децентралізована фізична інфраструктурна мережа). Наразі один із сайтів даних DePin вже демонструє понад 1400 проектів, серед яких представниками спільного використання потужності GPU є io.net, Aethir, Akash, Render Network тощо.
Основна логіка полягає в тому, що платформа дозволяє особам або суб'єктам, які мають невикористані ресурси GPU, у децентралізованій формі без дозволу вносити свій обчислювальний потенціал. Це підвищує використання невикористаних ресурсів GPU через онлайн-ринок, схожий на Uber або Airbnb, де покупці та продавці взаємодіють, що дозволяє кінцевим користувачам отримувати більш ефективні обчислювальні ресурси за нижчою ціною. Одночасно механізм стейкінгу також забезпечує, що у випадку порушення механізмів контролю якості або переривання мережі, постачальники ресурсів отримають відповідні покарання.
Його особливості полягають у:
Збір вільних ресурсів GPU: постачальниками в основному є надлишкові обчислювальні ресурси незалежних малих і середніх центрів обробки даних, криптомайданчиків та інших операторів, а також апаратура для майнінгу з механізмом консенсусу PoS, така як майнери FileCoin та ETH. Наразі існують також проекти, що прагнуть запустити обладнання з нижчими бар'єрами входу, наприклад, exolab використовує MacBook, iPhone, iPad та інші локальні пристрої для створення мережі обчислювальних потужностей для виконання великих моделей.
Перед довгим хвостом ринку обчислювальних потужностей AI:
a. «З технологічної точки зору» децентралізований ринок обчислювальних потужностей більше підходить для етапів висновку. Навчання значно більше залежить від обробної спроможності даних, яку забезпечує надвеликий кластер GPU, тоді як для висновку вимоги до обчислювальної продуктивності GPU відносно нижчі, наприклад, Aethir зосереджується на рендерингу з низькою затримкою та застосуваннях AI для висновків.
b. «З точки зору попиту» малі та середні замовники потужностей не будуть окремо навчати свої великі моделі, а лише виберуть оптимізацію та доопрацювання навколо кількох провідних великих моделей, і ці сценарії природно підходять для розподілених невикористаних обчислювальних ресурсів.
Дані
Дані є основою ШІ. Якщо немає даних, обчислення стає безглуздим, як водорості на поверхні води, а зв'язок між даними та моделлю подібний до приказки "Сміття на вході, сміття на виході". Кількість даних та якість вводу визначають якість виходу кінцевої моделі. Щодо навчання сучасних AI-моделей, дані визначають мовні можливості моделі, її здатність до розуміння, навіть цінності та гуманістичні прояви. Наразі основні труднощі з потребами в даних для ШІ зосереджені на чотирьох аспектах:
Голод до даних: навчання AI моделей залежить від великої кількості даних. Відкриті дані показують, що параметрів, використаних для навчання GPT-4 OpenAI, досягло трильйонного рівня.
Якість даних: з інтеграцією ШІ в різні галузі виникають нові вимоги до якості даних, зокрема до своєчасності, різноманітності даних, спеціалізації вертикальних даних і нових джерел даних, таких як емоції з соціальних медіа.
Проблеми конфіденційності та відповідності: в даний час різні країни та компанії поступово звертають увагу на важливість якісних наборів даних і вводять обмеження на їх збір.
Високі витрати на обробку даних: велика кількість даних, складний процес обробки. Відкриті дані показують, що більше 30% витрат на НДДКР у компаніях ШІ йдуть на збір та обробку базових даних.
На даний момент рішення web3 проявляються в чотирьох основних аспектах:
Дати можливість користувачам, які дійсно вносять внесок, також брати участь у створенні цінності, що виникає з даних, а також отримувати більш приватні та цінні дані від користувачів за допомогою розподіленої мережі та механізмів стимулювання, є баченням Web3.
Grass є децентралізованим рівнем даних та мережею, користувачі можуть запускати вузли Grass, вносячи свій вільний пропускну здатність та релейний трафік для захоплення реальних даних з усього Інтернету та отримувати токенні винагороди;
Vana ввела унікальну концепцію пулу ліквідності даних (DLP), де користувачі можуть завантажувати свої приватні дані (такі як історія покупок, звички перегляду, активність у соціальних мережах тощо) до певного DLP і гнучко вибирати, чи дозволяти конкретним третім сторонам використовувати ці дані;
У PublicAI користувач може використовувати #AI 或#Web3 як категорію на X та @PublicAI для збору даних.
Наразі Grass та OpenLayer обидва розглядають можливість приєднання до цього ключового етапу позначення даних.
Synesis запропонував концепцію «Train2earn», підкреслюючи якість даних, користувачі можуть отримувати винагороди, надаючи помічені дані, коментарі або інші форми введення.
Проект маркування даних Sapien ігровизує завдання маркування і дозволяє користувачам ставити на кон бали, щоб заробити більше балів.
Серед поширених технологій конфіденційності у Web3 наразі є:
Достовірне виконуване середовище ( TEE ), наприклад, Super Protocol;
Повна гомоморфна криптографія (FHE), наприклад BasedAI, Fhenix.io або Inco Network;
Технологія нульового знання (zk), така як Reclaim Protocol, використовує технологію zkTLS для генерації доказів нульового знання трафіку HTTPS, що дозволяє користувачам безпечно імпортувати дані про активність, репутацію та ідентичність з зовнішніх сайтів, не розкриваючи чутливу інформацію.
Проте наразі ця сфера все ще знаходиться на ранній стадії, більшість проектів ще в процесі дослідження, одним із сучасних викликів є надто високі витрати на обчислення, деякі приклади: