Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первом и втором рынках.
Возможности Web3 в индустрии ИИ проявляются в: использовании распределенной системы вознаграждений для координации потенциального предложения в длинном хвосте — через данные, хранение и вычисления; одновременно создавая открытые модели и децентрализованный рынок AI Agent.
ИИ в индустрии Web3 в основном используется для цепочного финансирования ( крипто-платежей, торговли, анализа данных ) и поддержки разработки.
Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 обещает противостоять централизованности AI, а AI, в свою очередь, может помочь Web3 выйти за рамки.
В последние два года развитие ИИ стало похоже на нажатие кнопки ускорения; этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но также создал бурное течение в области Web3.
С поддержкой концепции ИИ, финансирование на замедляющемся крипторынке стало заметно улучшаться. По статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 достигла максимальной суммы финансирования в 100 миллионов долларов на этапе A.
Вторичный рынок становится все более процветающим, данные агрегатора криптовалют Coingecko показывают, что всего за чуть больше года общая рыночная капитализация в области ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; очевидны положительные результаты, вызванные прогрессом в основных ИИ-технологиях: после выхода модели OpenAI Sora для преобразования текста в видео средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на один из сегментов криптовалют, привлекающих капитал, Meme: первая концепция MemeCoin с ИИ-агентом — GOAT быстро завоевала популярность и получила оценку в 1,4 миллиарда долларов, успешно вызвав волну AI Meme.
Исследования и обсуждения на тему AI+Web3 также горячо обсуждаются, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
AI+Web3, этот термин, наполненный горячими деньгами, модными тенденциями и фантазиями о будущем, неизбежно воспринимается как организованный брак, заключенный капиталом. Нам кажется, что трудно различить под этой роскошной одеждой, действительно ли это арена спекулянтов или предрассветный миг взрыва?
Чтобы ответить на этот вопрос, ключевым размышлением для обеих сторон является: станет ли лучше с другой стороной? Можем ли мы извлечь выгоду из моделей друг друга? В этой статье мы также пытаемся взглянуть на эту картину, стоя на плечах предшественников: как Web3 может играть роль на всех уровнях технологического стека AI, и что AI может привнести в Web3 нового вдохновения?
Часть 1. Какие возможности предоставляет Web3 в контексте стека ИИ?
Прежде чем развернуть эту тему, нам нужно понять технический стек больших моделей ИИ:
Объясните весь процесс более простым языком: «Большая модель» похожа на человеческий мозг, на ранних стадиях этот мозг принадлежит только что родившемуся ребенку, который должен наблюдать и усваивать огромное количество информации из окружающего мира, чтобы понять этот мир, это и есть этап «сбора» данных; так как компьютеры не обладают человеческими зрительными, слуховыми и другими ощущениями, перед обучением большое количество немаркированной информации из внешней среды необходимо преобразовать с помощью «предобработки» в формат информации, который компьютер может понять и использовать.
После ввода данных ИИ через «обучение» создает модель с пониманием и предсказательной способностью, что можно рассматривать как процесс постепенного понимания и обучения ребенка окружающему миру, параметры модели подобны языковым способностям ребенка, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает специализироваться или происходит общение с людьми, получая обратную связь и исправления, это переходит в этап «тонкой настройки» большой модели.
Дети, постепенно взрослея и научившись говорить, могут понимать смысл в новых диалогах и выражать свои чувства и мысли. Этот этап аналогичен «выводам» больших моделей ИИ, которые могут предсказывать и анализировать новые языковые и текстовые вводы. Младенцы используют языковые навыки для выражения чувств, описания предметов и решения различных задач, что также похоже на применение больших моделей ИИ на этапе вывода для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и т.д.
AI-агент становится более похожим на следующую форму большого моделирования – он способен независимо выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием, а также способностью использовать инструменты для взаимодействия с миром.
В настоящее время, учитывая болевые точки ИИ на различных уровнях, Web3 в настоящее время предварительно сформировала многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процессов моделей ИИ.
Один. Базовый уровень: вычислительная мощность и данные Airbnb
Мощность вычислений
В настоящее время одной из самых высоких затрат ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.
Один пример — это то, что Meta's LLAMA3 требует 16000 H100 GPU, произведенных NVIDIA (, это высококлассный графический процессор, специально разработанный для рабочих нагрузок в области искусственного интеллекта и высокопроизводительных вычислений, который требует 30 дней для завершения обучения. Цена на 80-гигабайтную версию колеблется от 30,000 до 40,000 долларов, что требует инвестиций в вычислительное оборудование в размере от 400 до 700 миллионов долларов ) GPU + сетевые чипы (, в то же время ежемесячное обучение требует потребления 1.6 миллиарда киловатт-часов, а расходы на электроэнергию составляют почти 20 миллионов долларов в месяц.
Разгрузка ИИ-вычислительных мощностей — это именно та область, где Web3 впервые пересекается с ИИ — DePin) децентрализованная сеть физических инфраструктур(. В настоящее время на сайте данных DePin Ninja представлены более 1400 проектов, среди которых проекты по совместному использованию вычислительных мощностей GPU включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет лицам или организациям, имеющим неиспользуемые ресурсы GPU, вносить свои вычислительные мощности в децентрализованном порядке без необходимости получения разрешения, создавая онлайн-рынок для покупателей и продавцов, подобный Uber или Airbnb, что увеличивает коэффициент использования неэффективно использованных ресурсов GPU, а конечные пользователи тем самым получают более дешевые и эффективные вычислительные ресурсы; в то же время механизм ставок также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов понесут соответствующее наказание.
Его особенности заключаются в:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние дата-центры, крипто-майнинг фермы и другие операторы, обладающие избыточными вычислительными ресурсами, а также оборудование для майнинга с механизмом согласования PoS, такое как майнеры FileCoin и ETH. В настоящее время существуют проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий локальные устройства, такие как MacBook, iPhone, iPad и т.д., для создания вычислительной сети, выполняющей выводы больших моделей.
Перед лицом долгосрочного рынка вычислительной мощности ИИ:
a. «С технической точки зрения» децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от вычислительной способности обработки данных, обеспечиваемой супербольшими кластерами GPU, тогда как вывод требует относительно низкой производительности вычислений GPU, например, Aethir сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. «С точки зрения спроса» малые и средние потребители вычислительных мощностей не будут отдельно обучать свои крупные модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих крупных моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованное владение: технологическое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, гибко адаптируя их в зависимости от спроса и одновременно получая доход.
)# Данные
Данные – это основа ИИ. Если нет данных, вычисления будут бесполезны, как водоросли на поверхности воды, а связь между данными и моделями напоминает пословицу "Мусор на входе, мусор на выходе"; количество данных и качество входных данных определяют качество выходных данных модели. Для текущего обучения ИИ модели данные определяют языковые способности модели, ее понимание, а также мировоззрение и уровень человеческого общения. В настоящее время проблемы потребности в данных для ИИ в основном сосредоточены на следующих четырех аспектах:
Жажда данных: обучение моделей ИИ зависит от большого объема входных данных. Публичные данные показывают, что OpenAI обучила GPT-4 с объемом параметров на уровне триллионов.
Качество данных: с объединением ИИ и различных отраслей возникают новые требования к качеству данных, включая своевременность, разнообразие данных, специфику вертикальных данных и внедрение новых источников данных, таких как эмоции в социальных медиа.
Проблемы конфиденциальности и соблюдения: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Открытые данные показывают, что более 30% затрат на НИОКР в AI-компаниях направлено на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в четырех аспектах:
Сбор данных: возможность бесплатного предоставления захваченных данных из реального мира быстро истощается, расходы AI-компаний на оплату данных ежегодно растут. Но в то же время эти расходы не возвращаются настоящим вкладчикам данных, платформы полностью наслаждаются создаваемой ценностью от данных.
Позволить настоящим вносящим вклад пользователям участвовать в создании ценности, обеспечиваемой данными, а также получать более частные и более ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулирования — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, внося свой вклад в неиспользуемую пропускную способность и реляционный трафик для захвата实时数据 из всего интернета и получения токенов в качестве вознаграждения;
Vana вводит уникальную концепцию пула ликвидности данных ###DLP(, где пользователи могут загружать свои личные данные ), такие как записи о покупках, привычки просмотра, активности в социальных сетях и т. д. ( в определенный DLP и гибко выбирать, разрешать ли использование этих данных конкретными третьими сторонами;
В PublicAI пользователи могут использовать )Web3 в качестве категории на X и @PublicAI для сбора данных.
Предобработка данных: в процессе обработки данных AI, поскольку собранные данные обычно шумные и содержат ошибки, они должны быть очищены и преобразованы в пригодный формат перед обучением модели, что включает стандартизацию, фильтрацию и обработку пропущенных значений. Этот этап является одним из немногих ручных процессов в AI-индустрии, что привело к появлению профессии аннотатора данных; с повышением требований моделей к качеству данных, порог для аннотаторов данных также увеличивается, и эта задача естественно подходит для децентрализованного механизма стимулов Web3.
В настоящее время Grass и OpenLayer рассматривают возможность включения этапа аннотирования данных.
Synesis представил концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать награды, предоставляя аннотированные данные, комментарии или другие формы ввода.
Проект по аннотированию данных Sapien превращает задачи маркировки в игру и позволяет пользователям ставить свои баллы, чтобы заработать больше баллов.
Конфиденциальность и безопасность данных: необходимо уточнить, что конфиденциальность данных и безопасность данных — это два разных понятия. Конфиденциальность данных касается обработки чувствительной информации, тогда как безопасность данных защищает информацию от несанкционированного доступа, уничтожения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные области применения проявляются в двух аспектах: #AI或#1( обучение на чувствительных данных; )2( сотрудничество данных: несколько владельцев данных могут совместно участвовать в обучении ИИ, не передавая свои исходные данные.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ) TEE (, например, Super Protocol;
Полная гомоморфная криптография ) FHE (, например BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний ) zk (, такая как Reclaim Protocol, использует технологию zkTLS для генерации нулевых доказательств для HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая при этом конфиденциальную информацию.
Однако на данный момент эта область все еще находится на ранних стадиях, большинство проектов все еще находятся в процессе исследования, текущая проблема заключается в слишком высоких вычислительных затратах, некоторые примеры:
Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML превышают чистые вычисления более чем в 1000 раз.
Хранение данных: После получения данных необходимо место для хранения данных на цепочке, а также LLM, сгенерированных с использованием этих данных. Вопрос доступности данных )DA( является ключевым, до обновления Danksharding в Ethereum его пропускная способность составляла 0,08 МБ. В то же время обучение AI-моделей и реальное время вывода обычно требуют пропускной способности данных от 50 до 100 ГБ в секунду. Это различие в порядках делает существующие решения на цепочке неэффективными при "ресурсозатратных AI-приложениях."
0g.AI является представительным проектом в этой категории. Это проект, нацеленный на
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
9 Лайков
Награда
9
5
Поделиться
комментарий
0/400
wagmi_eventually
· 20ч назад
Снова будут играть для лохов
Посмотреть ОригиналОтветить0
GasWaster
· 20ч назад
бро, l2s действительно могут спасти ИИ от превращения в Газ-кошмар, не буду врать...
Посмотреть ОригиналОтветить0
consensus_whisperer
· 20ч назад
Это просто манипуляции. Следующий.
Посмотреть ОригиналОтветить0
OPsychology
· 20ч назад
Цзэ, это всего лишь новая ловушка для спекуляций.
Посмотреть ОригиналОтветить0
BearMarketBarber
· 20ч назад
Все просто спекулируют на концепциях, чтобы заработать деньги~
Слияние AI и Web3 невозможно остановить: новая структура от共享 вычислительной мощности до стимулирования данных.
AI+Web3: Башни и площади
ТЛ; ДОКТОР
Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первом и втором рынках.
Возможности Web3 в индустрии ИИ проявляются в: использовании распределенной системы вознаграждений для координации потенциального предложения в длинном хвосте — через данные, хранение и вычисления; одновременно создавая открытые модели и децентрализованный рынок AI Agent.
ИИ в индустрии Web3 в основном используется для цепочного финансирования ( крипто-платежей, торговли, анализа данных ) и поддержки разработки.
Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 обещает противостоять централизованности AI, а AI, в свою очередь, может помочь Web3 выйти за рамки.
! AI+Web3: Башни и площади
Введение
В последние два года развитие ИИ стало похоже на нажатие кнопки ускорения; этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но также создал бурное течение в области Web3.
С поддержкой концепции ИИ, финансирование на замедляющемся крипторынке стало заметно улучшаться. По статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 достигла максимальной суммы финансирования в 100 миллионов долларов на этапе A.
Вторичный рынок становится все более процветающим, данные агрегатора криптовалют Coingecko показывают, что всего за чуть больше года общая рыночная капитализация в области ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; очевидны положительные результаты, вызванные прогрессом в основных ИИ-технологиях: после выхода модели OpenAI Sora для преобразования текста в видео средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на один из сегментов криптовалют, привлекающих капитал, Meme: первая концепция MemeCoin с ИИ-агентом — GOAT быстро завоевала популярность и получила оценку в 1,4 миллиарда долларов, успешно вызвав волну AI Meme.
Исследования и обсуждения на тему AI+Web3 также горячо обсуждаются, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
AI+Web3, этот термин, наполненный горячими деньгами, модными тенденциями и фантазиями о будущем, неизбежно воспринимается как организованный брак, заключенный капиталом. Нам кажется, что трудно различить под этой роскошной одеждой, действительно ли это арена спекулянтов или предрассветный миг взрыва?
Чтобы ответить на этот вопрос, ключевым размышлением для обеих сторон является: станет ли лучше с другой стороной? Можем ли мы извлечь выгоду из моделей друг друга? В этой статье мы также пытаемся взглянуть на эту картину, стоя на плечах предшественников: как Web3 может играть роль на всех уровнях технологического стека AI, и что AI может привнести в Web3 нового вдохновения?
Часть 1. Какие возможности предоставляет Web3 в контексте стека ИИ?
Прежде чем развернуть эту тему, нам нужно понять технический стек больших моделей ИИ:
! AI+Web3: Башни и площади
Объясните весь процесс более простым языком: «Большая модель» похожа на человеческий мозг, на ранних стадиях этот мозг принадлежит только что родившемуся ребенку, который должен наблюдать и усваивать огромное количество информации из окружающего мира, чтобы понять этот мир, это и есть этап «сбора» данных; так как компьютеры не обладают человеческими зрительными, слуховыми и другими ощущениями, перед обучением большое количество немаркированной информации из внешней среды необходимо преобразовать с помощью «предобработки» в формат информации, который компьютер может понять и использовать.
После ввода данных ИИ через «обучение» создает модель с пониманием и предсказательной способностью, что можно рассматривать как процесс постепенного понимания и обучения ребенка окружающему миру, параметры модели подобны языковым способностям ребенка, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает специализироваться или происходит общение с людьми, получая обратную связь и исправления, это переходит в этап «тонкой настройки» большой модели.
Дети, постепенно взрослея и научившись говорить, могут понимать смысл в новых диалогах и выражать свои чувства и мысли. Этот этап аналогичен «выводам» больших моделей ИИ, которые могут предсказывать и анализировать новые языковые и текстовые вводы. Младенцы используют языковые навыки для выражения чувств, описания предметов и решения различных задач, что также похоже на применение больших моделей ИИ на этапе вывода для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и т.д.
AI-агент становится более похожим на следующую форму большого моделирования – он способен независимо выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием, а также способностью использовать инструменты для взаимодействия с миром.
В настоящее время, учитывая болевые точки ИИ на различных уровнях, Web3 в настоящее время предварительно сформировала многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процессов моделей ИИ.
Один. Базовый уровень: вычислительная мощность и данные Airbnb
Мощность вычислений
В настоящее время одной из самых высоких затрат ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.
Один пример — это то, что Meta's LLAMA3 требует 16000 H100 GPU, произведенных NVIDIA (, это высококлассный графический процессор, специально разработанный для рабочих нагрузок в области искусственного интеллекта и высокопроизводительных вычислений, который требует 30 дней для завершения обучения. Цена на 80-гигабайтную версию колеблется от 30,000 до 40,000 долларов, что требует инвестиций в вычислительное оборудование в размере от 400 до 700 миллионов долларов ) GPU + сетевые чипы (, в то же время ежемесячное обучение требует потребления 1.6 миллиарда киловатт-часов, а расходы на электроэнергию составляют почти 20 миллионов долларов в месяц.
Разгрузка ИИ-вычислительных мощностей — это именно та область, где Web3 впервые пересекается с ИИ — DePin) децентрализованная сеть физических инфраструктур(. В настоящее время на сайте данных DePin Ninja представлены более 1400 проектов, среди которых проекты по совместному использованию вычислительных мощностей GPU включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет лицам или организациям, имеющим неиспользуемые ресурсы GPU, вносить свои вычислительные мощности в децентрализованном порядке без необходимости получения разрешения, создавая онлайн-рынок для покупателей и продавцов, подобный Uber или Airbnb, что увеличивает коэффициент использования неэффективно использованных ресурсов GPU, а конечные пользователи тем самым получают более дешевые и эффективные вычислительные ресурсы; в то же время механизм ставок также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов понесут соответствующее наказание.
Его особенности заключаются в:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние дата-центры, крипто-майнинг фермы и другие операторы, обладающие избыточными вычислительными ресурсами, а также оборудование для майнинга с механизмом согласования PoS, такое как майнеры FileCoin и ETH. В настоящее время существуют проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий локальные устройства, такие как MacBook, iPhone, iPad и т.д., для создания вычислительной сети, выполняющей выводы больших моделей.
Перед лицом долгосрочного рынка вычислительной мощности ИИ:
a. «С технической точки зрения» децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от вычислительной способности обработки данных, обеспечиваемой супербольшими кластерами GPU, тогда как вывод требует относительно низкой производительности вычислений GPU, например, Aethir сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. «С точки зрения спроса» малые и средние потребители вычислительных мощностей не будут отдельно обучать свои крупные модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих крупных моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
)# Данные
Данные – это основа ИИ. Если нет данных, вычисления будут бесполезны, как водоросли на поверхности воды, а связь между данными и моделями напоминает пословицу "Мусор на входе, мусор на выходе"; количество данных и качество входных данных определяют качество выходных данных модели. Для текущего обучения ИИ модели данные определяют языковые способности модели, ее понимание, а также мировоззрение и уровень человеческого общения. В настоящее время проблемы потребности в данных для ИИ в основном сосредоточены на следующих четырех аспектах:
Жажда данных: обучение моделей ИИ зависит от большого объема входных данных. Публичные данные показывают, что OpenAI обучила GPT-4 с объемом параметров на уровне триллионов.
Качество данных: с объединением ИИ и различных отраслей возникают новые требования к качеству данных, включая своевременность, разнообразие данных, специфику вертикальных данных и внедрение новых источников данных, таких как эмоции в социальных медиа.
Проблемы конфиденциальности и соблюдения: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Открытые данные показывают, что более 30% затрат на НИОКР в AI-компаниях направлено на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в четырех аспектах:
Позволить настоящим вносящим вклад пользователям участвовать в создании ценности, обеспечиваемой данными, а также получать более частные и более ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулирования — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, внося свой вклад в неиспользуемую пропускную способность и реляционный трафик для захвата实时数据 из всего интернета и получения токенов в качестве вознаграждения;
Vana вводит уникальную концепцию пула ликвидности данных ###DLP(, где пользователи могут загружать свои личные данные ), такие как записи о покупках, привычки просмотра, активности в социальных сетях и т. д. ( в определенный DLP и гибко выбирать, разрешать ли использование этих данных конкретными третьими сторонами;
В PublicAI пользователи могут использовать )Web3 в качестве категории на X и @PublicAI для сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность включения этапа аннотирования данных.
Synesis представил концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать награды, предоставляя аннотированные данные, комментарии или другие формы ввода.
Проект по аннотированию данных Sapien превращает задачи маркировки в игру и позволяет пользователям ставить свои баллы, чтобы заработать больше баллов.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ) TEE (, например, Super Protocol;
Полная гомоморфная криптография ) FHE (, например BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний ) zk (, такая как Reclaim Protocol, использует технологию zkTLS для генерации нулевых доказательств для HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая при этом конфиденциальную информацию.
Однако на данный момент эта область все еще находится на ранних стадиях, большинство проектов все еще находятся в процессе исследования, текущая проблема заключается в слишком высоких вычислительных затратах, некоторые примеры:
Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML превышают чистые вычисления более чем в 1000 раз.