Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.
Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте, через данные, хранение и вычисления; одновременно, создание открытой модели и децентрализованного рынка AI-агентов.
ИИ в индустрии Web3 в основном используется для финансов на блокчейне ( криптооплат, торговли, анализа данных ) и помощи в разработке.
Эффективность AI+Web3 проявляется в взаимодополняемости двух технологий: Web3, как ожидается, сможет противостоять централизации AI, а AI, в свою очередь, поможет Web3 выйти за пределы.
В последние два года развитие ИИ похоже на то, что нажали кнопку ускорения; этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но также вызвал мощный поток в области Web3.
С поддержкой концепции ИИ, заметно увеличилось финансирование на замедляющемся рынке криптовалют. Согласно статистике СМИ, только за первую половину 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 достигла рекордной суммы финансирования в 100 миллионов долларов на этапе A.
Вторичный рынок становится все более процветающим. Данные криптоагрегатора Coingecko показывают, что за чуть более года общая капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов. Явные преимущества, принесенные основными технологическими достижениями в области ИИ, проявились после выпуска текстово-видео модели Sora от OpenAI, что привело к росту средней цены сектора ИИ на 151%. Эффект ИИ также распространился на один из сегментов криптовалют, привлекающий капитал, Meme: концепция первого AI Agent MemeCoin GOAT быстро завоевала популярность и достигла оценки в 1,4 миллиарда долларов, успешно вызвав бум AI Meme.
Исследование и темы, связанные с AI+Web3, также на пике популярности, начиная с AI+Depin, затем AI Memecoin и текущими AI Agent и AI DAO, эмоции FOMO уже не успевают за темпами смены новых нарративов.
AI+Web3, это сочетание терминов, полное горячих денег, трендов и будущих фантазий, неизбежно воспринимается некоторыми как брак по расчету, устроенный капиталом. Нам кажется, что трудно различить под этой роскошной одеждой, на самом ли деле это арена спекулянтов или предрассветный момент взрыва?
Чтобы ответить на этот вопрос, важным размышлением для обеих сторон является то, станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту схему с плеч предшественников: как Web3 может сыграть роль на всех этапах технологического стека AI, и что AI может принести новому жизненному импульсу Web3?
Часть 1. Какие возможности существуют для Web3 под стеком ИИ?
Перед тем как раскрыть эту тему, нам нужно понять технологический стек больших моделей ИИ:
Более простым языком весь процесс можно описать так: «Большая модель» похожа на человеческий мозг, на ранних стадиях этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и воспринимать огромное количество информации из окружающего мира, чтобы понять этот мир, это и есть этап «сбор данных»; поскольку компьютеры не обладают такими человеческими чувствами, как зрение и слух, перед обучением крупномасштабная неразмеченная информация извне должна быть преобразована через «предобработку» в формат информации, понятный и используемый компьютером.
После ввода данных ИИ с помощью «обучения» создает модель с пониманием и предсказательной способностью, что можно рассматривать как процесс постепенного понимания и обучения ребенка внешнему миру. Параметры модели подобны языковым навыкам, которые ребенок постоянно корректирует в процессе обучения. Когда содержание обучения начинает делиться на предметы или происходит общение с людьми, получая обратную связь и корректировки, это переходит в стадию «доработки» большой модели.
Дети, постепенно взрослея и научившись говорить, могут понимать смысл в новых диалогах и выражать свои чувства и мысли. Этот этап аналогичен «выводам» больших моделей ИИ, которые способны предсказывать и анализировать новые языковые и текстовые вводы. Младенцы выражают свои чувства через языковые способности, описывают объекты и решают различные проблемы, что также похоже на стадии вывода, когда большие модели ИИ применяются для выполнения различных конкретных задач, таких как классификация изображений, распознавание речи и др.
А AI Agent становится следующей формой большого моделирования - способен независимо выполнять задачи и стремиться к сложным целям, обладая не только мыслительными способностями, но и памятью, планированием, а также способностью использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на болевые точки ИИ на различных уровнях, Web3 в настоящее время постепенно формирует многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса ИИ-моделей.
Один. Базовый уровень: Airbnb для вычислительной мощности и данных
Мощность вычислений
На данный момент одной из самых высоких затрат для ИИ является вычислительная мощность и энергия, необходимая для обучения моделей и их вывода.
Один из примеров — это LLAMA3 от Meta, который требует 16000 графических процессоров H100, произведенных NVIDIA(, которые являются высококлассными графическими процессорами, специально разработанными для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками. Обучение занимает 30 дней. Цена на 80-гигабайтную версию колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование в размере от 400 до 700 миллионов долларов)GPU + сетевые чипы(, при этом ежемесячные тренировки требуют 1,6 миллиарда киловатт-часов, а месячные расходы на энергию составляют почти 20 миллионов долларов.
Распаковка вычислительной мощности ИИ также является одной из первых областей пересечения Web3 и ИИ - DePin) децентрализованные сети физических инфраструктур( в настоящее время сайт данных DePin Ninja выставил более 1400 проектов, среди которых проекты, представляющие совместное использование вычислительной мощности GPU, включают io.net, Aethir, Akash, Render Network и т.д.
Основная логика заключается в том, что платформа позволяет индивидуумам или организациям, имеющим неиспользуемые ресурсы GPU, вносить свой вычислительный потенциал без необходимости получения разрешения в децентрализованном порядке, создавая онлайн-рынок покупателей и продавцов, аналогичный Uber или Airbnb, что повышает коэффициент использования недоиспользуемых ресурсов GPU, и конечные пользователи таким образом получают более доступные и эффективные вычислительные ресурсы; одновременно механизм стейкинга также обеспечивает, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов подвергаются соответствующим наказаниям.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние центры обработки данных, операторы избыточных вычислительных ресурсов криптодобычи и т.д., а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время существуют проекты, которые стремятся запустить оборудование с более низким порогом входа, такие как exolab, использующий локальные устройства, такие как MacBook, iPhone, iPad и т.д., для создания сети вычислительных ресурсов для выполнения больших моделей.
Столкновение с длинным хвостом рынка вычислительных мощностей ИИ:
a. С точки зрения технологии децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от обработки данных, предоставляемой GPU с очень большими масштабами кластеров, в то время как для вывода производительность GPU менее критична, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. С точки зрения спроса, малые и средние пользователи вычислительных ресурсов не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и тонкую настройку вокруг нескольких ведущих больших моделей, и такие сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованная собственность: Техническое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, могут гибко регулировать их в зависимости от спроса и одновременно получать прибыль.
Данные
Данные являются основой ИИ. Если данных нет, вычисления, как водоросли на поверхности, совершенно бесполезны, а связь между данными и моделью напоминает пословицу "Мусор на входе, мусор на выходе"; количество данных и качество ввода определяют качество выходных данных модели. Для текущего обучения моделей ИИ данные определяют языковые способности модели, способности к пониманию, даже ценности и гуманистическое поведение. В настоящее время проблема потребности ИИ в данных в основном сосредоточена на четырех аспектах:
Жажда данных: обучение моделей ИИ зависит от большого объема входных данных. Публичные данные показывают, что OpenAI обучил GPT-4 с объемом параметров на уровне триллионов.
Качество данных: с объединением ИИ и различных отраслей, актуальность данных, разнообразие данных, профессионализм вертикальных данных и интеграция новых источников данных, таких как эмоции в социальных медиа, также ставят новые требования к их качеству.
Проблемы конфиденциальности и соблюдения законодательства: в настоящее время разные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на их сбор.
Высокие затраты на обработку данных: большой объем данных и сложный процесс обработки. Согласно открытым данным, более 30% затрат на НИОКР в AI-компаниях идет на базовый сбор и обработку данных.
В настоящее время решения web3 проявляются в четырех основных аспектах:
Сбор данных: Количество доступных для бесплатного использования реальных данных, которые можно собирать, быстро истощается, а расходы AI-компаний на данные растут с каждым годом. Тем не менее, эти расходы не возвращаются к настоящим вкладчикам данных, и платформы полностью наслаждаются созданием ценности, которую приносит данная информация, например, одна из платформ получила доход в размере 203 миллиона долларов США, подписав соглашение о лицензировании данных с AI-компаниями.
Позволить пользователям, которые действительно вносят вклад, также участвовать в создании ценности, возникающей из данных, а также получать более частные и ценные данные от пользователей с низкими затратами через распределенные сети и механизмы стимулирования — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить вклад в неиспользуемую пропускную способность и релейный трафик для захвата实时数据 из всего интернета и получать токен-вознаграждение;
Vana вводит уникальную концепцию пула ликвидности данных )DLP(, пользователи могут загружать свои личные данные ), такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д. ( в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим лицам;
В PublicAI пользователи могут использовать )Web3 в качестве классификационного тега на социальных платформах и @PublicAI для сбора данных.
Предобработка данных: в процессе обработки данных ИИ, поскольку собранные данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный формат до обучения модели, что включает стандартизацию, фильтрацию и обработку пропущенных значений. Этот этап является одним из немногих ручных этапов в отрасли ИИ, что привело к появлению профессии аннотатора данных. С увеличением требований модели к качеству данных, планка для аннотаторов данных также повышается, и эта задача естественным образом подходит для децентрализованной системы вознаграждений Web3.
В настоящее время Grass и OpenLayer рассматривают возможность включения этапа аннотирования данных.
Synesis представил концепцию «Train2earn», подчеркивая качество данных; пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.
Проект по аннотации данных Sapien геймифицирует задачи по маркировке и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Конфиденциальность и безопасность данных: необходимо прояснить, что конфиденциальность и безопасность данных – это два разных понятия. Конфиденциальность данных касается обработки чувствительной информации, тогда как безопасность данных защищает информацию от несанкционированного доступа, уничтожения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные сценарии применения проявляются в двух аспектах: #AI或# ( обучение чувствительных данных; ) сотрудничество данных: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь своими исходными данными.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например Super Protocol;
Полная гомоморфная криптография (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний ( zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, что позволяет пользователям безопасно импортировать активы, репутацию и данные о личности с внешних сайтов, не раскрывая конфиденциальную информацию.
Тем не менее, в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры:
Фреймворку zkML EZKL требуется около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML превышают чистые вычисления более чем в 1000 раз.
Хранение данных: После получения данных необходимо место для хранения данных в цепочке, а также LLM, созданных с использованием этих данных. Являясь основной проблемой доступности данных (DA), до обновления Danksharding в Ethereum ее пропускная способность составляла 0.08MB. В то же время обучение AI моделей и их реальное использование обычно требуют пропускной способности данных от 50 до 100GB в секунду. Эта разница в порядке величины делает существующие цепочки
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
4
Поделиться
комментарий
0/400
DeFiDoctor
· 6ч назад
Стандартизированное обследование процессов показывает, что эти сделки по слиянию в области AI+Web3 должны сначала наблюдать за стабильностью кода в течение трех месяцев.
Посмотреть ОригиналОтветить0
wrekt_but_learning
· 20ч назад
Медвежий рынок тоже не проснулся.
Посмотреть ОригиналОтветить0
WenAirdrop
· 20ч назад
gpt сильнее человека, это слишком несправедливо к нам
AI и Web3 пересекаются: новые возможности от вычислительной мощности к стимуляции данных
AI+Web3: Башни и площади
Краткое содержание
Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.
Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте, через данные, хранение и вычисления; одновременно, создание открытой модели и децентрализованного рынка AI-агентов.
ИИ в индустрии Web3 в основном используется для финансов на блокчейне ( криптооплат, торговли, анализа данных ) и помощи в разработке.
Эффективность AI+Web3 проявляется в взаимодополняемости двух технологий: Web3, как ожидается, сможет противостоять централизации AI, а AI, в свою очередь, поможет Web3 выйти за пределы.
! AI+Web3: Башни и площади
Введение
В последние два года развитие ИИ похоже на то, что нажали кнопку ускорения; этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но также вызвал мощный поток в области Web3.
С поддержкой концепции ИИ, заметно увеличилось финансирование на замедляющемся рынке криптовалют. Согласно статистике СМИ, только за первую половину 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 достигла рекордной суммы финансирования в 100 миллионов долларов на этапе A.
Вторичный рынок становится все более процветающим. Данные криптоагрегатора Coingecko показывают, что за чуть более года общая капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов. Явные преимущества, принесенные основными технологическими достижениями в области ИИ, проявились после выпуска текстово-видео модели Sora от OpenAI, что привело к росту средней цены сектора ИИ на 151%. Эффект ИИ также распространился на один из сегментов криптовалют, привлекающий капитал, Meme: концепция первого AI Agent MemeCoin GOAT быстро завоевала популярность и достигла оценки в 1,4 миллиарда долларов, успешно вызвав бум AI Meme.
Исследование и темы, связанные с AI+Web3, также на пике популярности, начиная с AI+Depin, затем AI Memecoin и текущими AI Agent и AI DAO, эмоции FOMO уже не успевают за темпами смены новых нарративов.
AI+Web3, это сочетание терминов, полное горячих денег, трендов и будущих фантазий, неизбежно воспринимается некоторыми как брак по расчету, устроенный капиталом. Нам кажется, что трудно различить под этой роскошной одеждой, на самом ли деле это арена спекулянтов или предрассветный момент взрыва?
Чтобы ответить на этот вопрос, важным размышлением для обеих сторон является то, станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту схему с плеч предшественников: как Web3 может сыграть роль на всех этапах технологического стека AI, и что AI может принести новому жизненному импульсу Web3?
Часть 1. Какие возможности существуют для Web3 под стеком ИИ?
Перед тем как раскрыть эту тему, нам нужно понять технологический стек больших моделей ИИ:
! AI+Web3: Башни и площади
Более простым языком весь процесс можно описать так: «Большая модель» похожа на человеческий мозг, на ранних стадиях этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и воспринимать огромное количество информации из окружающего мира, чтобы понять этот мир, это и есть этап «сбор данных»; поскольку компьютеры не обладают такими человеческими чувствами, как зрение и слух, перед обучением крупномасштабная неразмеченная информация извне должна быть преобразована через «предобработку» в формат информации, понятный и используемый компьютером.
После ввода данных ИИ с помощью «обучения» создает модель с пониманием и предсказательной способностью, что можно рассматривать как процесс постепенного понимания и обучения ребенка внешнему миру. Параметры модели подобны языковым навыкам, которые ребенок постоянно корректирует в процессе обучения. Когда содержание обучения начинает делиться на предметы или происходит общение с людьми, получая обратную связь и корректировки, это переходит в стадию «доработки» большой модели.
Дети, постепенно взрослея и научившись говорить, могут понимать смысл в новых диалогах и выражать свои чувства и мысли. Этот этап аналогичен «выводам» больших моделей ИИ, которые способны предсказывать и анализировать новые языковые и текстовые вводы. Младенцы выражают свои чувства через языковые способности, описывают объекты и решают различные проблемы, что также похоже на стадии вывода, когда большие модели ИИ применяются для выполнения различных конкретных задач, таких как классификация изображений, распознавание речи и др.
А AI Agent становится следующей формой большого моделирования - способен независимо выполнять задачи и стремиться к сложным целям, обладая не только мыслительными способностями, но и памятью, планированием, а также способностью использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на болевые точки ИИ на различных уровнях, Web3 в настоящее время постепенно формирует многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса ИИ-моделей.
Один. Базовый уровень: Airbnb для вычислительной мощности и данных
Мощность вычислений
На данный момент одной из самых высоких затрат для ИИ является вычислительная мощность и энергия, необходимая для обучения моделей и их вывода.
Один из примеров — это LLAMA3 от Meta, который требует 16000 графических процессоров H100, произведенных NVIDIA(, которые являются высококлассными графическими процессорами, специально разработанными для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками. Обучение занимает 30 дней. Цена на 80-гигабайтную версию колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование в размере от 400 до 700 миллионов долларов)GPU + сетевые чипы(, при этом ежемесячные тренировки требуют 1,6 миллиарда киловатт-часов, а месячные расходы на энергию составляют почти 20 миллионов долларов.
Распаковка вычислительной мощности ИИ также является одной из первых областей пересечения Web3 и ИИ - DePin) децентрализованные сети физических инфраструктур( в настоящее время сайт данных DePin Ninja выставил более 1400 проектов, среди которых проекты, представляющие совместное использование вычислительной мощности GPU, включают io.net, Aethir, Akash, Render Network и т.д.
Основная логика заключается в том, что платформа позволяет индивидуумам или организациям, имеющим неиспользуемые ресурсы GPU, вносить свой вычислительный потенциал без необходимости получения разрешения в децентрализованном порядке, создавая онлайн-рынок покупателей и продавцов, аналогичный Uber или Airbnb, что повышает коэффициент использования недоиспользуемых ресурсов GPU, и конечные пользователи таким образом получают более доступные и эффективные вычислительные ресурсы; одновременно механизм стейкинга также обеспечивает, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов подвергаются соответствующим наказаниям.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние центры обработки данных, операторы избыточных вычислительных ресурсов криптодобычи и т.д., а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время существуют проекты, которые стремятся запустить оборудование с более низким порогом входа, такие как exolab, использующий локальные устройства, такие как MacBook, iPhone, iPad и т.д., для создания сети вычислительных ресурсов для выполнения больших моделей.
Столкновение с длинным хвостом рынка вычислительных мощностей ИИ:
a. С точки зрения технологии децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от обработки данных, предоставляемой GPU с очень большими масштабами кластеров, в то время как для вывода производительность GPU менее критична, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. С точки зрения спроса, малые и средние пользователи вычислительных ресурсов не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и тонкую настройку вокруг нескольких ведущих больших моделей, и такие сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Данные
Данные являются основой ИИ. Если данных нет, вычисления, как водоросли на поверхности, совершенно бесполезны, а связь между данными и моделью напоминает пословицу "Мусор на входе, мусор на выходе"; количество данных и качество ввода определяют качество выходных данных модели. Для текущего обучения моделей ИИ данные определяют языковые способности модели, способности к пониманию, даже ценности и гуманистическое поведение. В настоящее время проблема потребности ИИ в данных в основном сосредоточена на четырех аспектах:
Жажда данных: обучение моделей ИИ зависит от большого объема входных данных. Публичные данные показывают, что OpenAI обучил GPT-4 с объемом параметров на уровне триллионов.
Качество данных: с объединением ИИ и различных отраслей, актуальность данных, разнообразие данных, профессионализм вертикальных данных и интеграция новых источников данных, таких как эмоции в социальных медиа, также ставят новые требования к их качеству.
Проблемы конфиденциальности и соблюдения законодательства: в настоящее время разные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на их сбор.
Высокие затраты на обработку данных: большой объем данных и сложный процесс обработки. Согласно открытым данным, более 30% затрат на НИОКР в AI-компаниях идет на базовый сбор и обработку данных.
В настоящее время решения web3 проявляются в четырех основных аспектах:
Позволить пользователям, которые действительно вносят вклад, также участвовать в создании ценности, возникающей из данных, а также получать более частные и ценные данные от пользователей с низкими затратами через распределенные сети и механизмы стимулирования — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить вклад в неиспользуемую пропускную способность и релейный трафик для захвата实时数据 из всего интернета и получать токен-вознаграждение;
Vana вводит уникальную концепцию пула ликвидности данных )DLP(, пользователи могут загружать свои личные данные ), такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д. ( в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим лицам;
В PublicAI пользователи могут использовать )Web3 в качестве классификационного тега на социальных платформах и @PublicAI для сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность включения этапа аннотирования данных.
Synesis представил концепцию «Train2earn», подчеркивая качество данных; пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.
Проект по аннотации данных Sapien геймифицирует задачи по маркировке и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например Super Protocol;
Полная гомоморфная криптография (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний ( zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, что позволяет пользователям безопасно импортировать активы, репутацию и данные о личности с внешних сайтов, не раскрывая конфиденциальную информацию.
Тем не менее, в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры:
Фреймворку zkML EZKL требуется около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML превышают чистые вычисления более чем в 1000 раз.