Сегментация по категориям становится фокусом расширения, а универсальный ИИ уступает место специализированному ИИ.
Автор: Haotian
Проанализировав несколько популярных проектов в области Crypto+AI за последний месяц, я обнаружил три заметные изменения в трендах, с кратким описанием и комментариями к проектам:
Технический путь проекта стал более практичным, теперь акцент делается на производственные данные, а не на чистую концептуальную упаковку;
Сегментация по вертикалям становится центром расширения, универсальный ИИ уступает место специализированному ИИ;
Капитал больше заботится о верификации бизнес-моделей, проекты с наличным потоком явно более предпочтительны;
Приложение: Описание проекта, анализ ключевых моментов, личное мнение:
1、 @yupp_ai
Описание проекта: децентрализованная платформа оценки AI моделей, в июне завершила этап посевного финансирования на сумму 33 миллиона долларов, ведущим инвестором выступил a16z, также инвестировал Джефф Дин.
Анализ ключевых моментов: применение преимущества субъективного суждения человека к недостаткам оценки ИИ. С помощью краудсорсинга были оценены более 500 больших моделей, обратная связь от пользователей может быть обменена на наличные (1000 баллов = 1 доллар), что привлекло такие компании, как OpenAI, для закупки данных, что создает реальный денежный поток.
Личный отзыв: Проект с довольно ясной бизнес-моделью, это не просто модель сжигания денег. Однако борьба с подделкой заказов является большой проблемой, алгоритм противодействия атаке "ведьм" должен постоянно оптимизироваться. Но судя по размеру финансирования в 33 миллиона долларов, капитал явно больше ценит проекты с проверенной возможностью монетизации.
2、 @Gradient_HQ
Описание проекта: децентрализованная сеть вычислений на основе ИИ, в июне завершила посевной раунд на 10 миллионов долларов, лидирующие инвестиции от Pantera Capital и Multicoin Capital.
Анализ ключевых моментов: с помощью плагина браузера Sentry Nodes уже достигнуто определенное рыночное согласие в области Solana DePIN, члены команды пришли из Helium и других компаний, недавно был представлен протокол передачи данных Lattica и движок вывода Parallax, которые проводили существенные исследования в области периферийных вычислений и проверяемости данных, что позволяет снизить задержку на 40% и поддерживает подключение гетерогенных устройств.
Личный отзыв: Направление верное, как раз соответствует тенденции локализации ИИ «углубления». Однако при выполнении сложных задач необходимо сравнивать эффективность с централизованными платформами, стабильность периферийных узлов все еще является проблемой. Тем не менее, периферийные вычисления - это новая необходимость, возникшая из внутренней конкуренции web2AI, а также преимущество распределенной структуры web3AI, поэтому я надеюсь на продвижение практических продуктов с конкретными показателями производительности.
3、 @PublicAI_
Описание проекта: децентрализованная платформа инфраструктуры данных AI, которая с помощью токенов стимулирует глобальных пользователей вносить данные из различных областей (медицина, автономное вождение, голос и т.д.), общий доход составил более 14 миллионов долларов, создана сеть с миллионом участников, вносящих данные.
Анализ ключевых моментов: с технической точки зрения интеграция ZK-верификации и алгоритма консенсуса BFT обеспечивает качество данных, а также использована технология конфиденциальных вычислений Amazon Nitro Enclaves для соблюдения требований к соблюдению законодательства. Интересно, что был представлен устройство для сбора мозговых волн HeadCap, что можно считать расширением от программного обеспечения к аппаратному обеспечению. Экономическая модель также хорошо спроектирована: пользователь может заработать 16 долларов + 500000 баллов за 10 часов голосовой разметки, а затраты предприятий на подписку на услуги данных могут снизиться на 45%.
Личное мнение: считаю, что главная ценность этого проекта заключается в реальной потребности в маркировке данных с использованием ИИ, особенно в таких областях, как медицина и автономное вождение, где требования к качеству данных и соблюдению норм очень высоки. Однако 20% уровень ошибок всё же выше, чем 10% у традиционных платформ, и колебания качества данных — это проблема, которую необходимо постоянно решать. Направление интерфейса мозг-компьютер довольно многообещающее, но трудности выполнения также немалые.
@sparkchainai
Описание проекта: распределенная вычислительная сеть на блокчейне Solana, в июне завершила финансирование на сумму 10,8 миллиона долларов, ведущим инвестором является OakStone Ventures.
Анализ ключевых момент: с помощью технологии динамического шардирования агрегируются неиспользуемые ресурсы GPU, поддерживается вывод больших моделей, таких как Llama3-405B, стоимость ниже на 40% по сравнению с AWS. Дизайн токенизированной торговли данными довольно интересен, он напрямую превращает вкладчиков вычислительной мощности в заинтересованные стороны и может стимулировать большее участие людей в сети.
Личное мнение: типичная модель «агрегации неиспользуемых ресурсов», логически это имеет смысл. Но 15% уровень ошибок в кросс-цепочном валидации действительно высок, техническая стабильность требует дальнейшей доработки. Тем не менее, в сценариях 3D-рендеринга, где требования к времени отклика не так высоки, это действительно имеет свои преимущества, главное - это снизить уровень ошибок, иначе даже самая лучшая бизнес-модель будет страдать от технических проблем.
5、 @olaxbt_terminal
Описание проекта: Платформа высокочастотной торговли криптовалютами на основе ИИ, завершившая посевной раунд в 3,38 миллиона долларов в июне, @ambergroup_io
Ведущий инвестор.
Анализ ключевых моментов: технология MCP может динамически оптимизировать торговые пути, снижая проскальзывание, что приводит к повышению эффективности на 30%. В соответствии с трендом #AgentFi, это можно считать нахождением точки входа в относительно незаполненную нишу алгоритмической торговли в DeFi, что, в свою очередь, заполняет рыночный спрос.
Личный отзыв: Направление верное, DeFi действительно нуждается в более умных торговых инструментах. Однако высокочастотная торговля требует очень высокой скорости и точности, поэтому необходимо проверить реальную согласованность предсказаний ИИ и выполнения на блокчейне. Кроме того, атаки MEV представляют собой большой риск, и технические меры защиты должны соответствовать этому.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Обзор недавних популярных проектов Crypto+AI, три тенденции заметно изменились
Автор: Haotian
Проанализировав несколько популярных проектов в области Crypto+AI за последний месяц, я обнаружил три заметные изменения в трендах, с кратким описанием и комментариями к проектам:
Технический путь проекта стал более практичным, теперь акцент делается на производственные данные, а не на чистую концептуальную упаковку;
Сегментация по вертикалям становится центром расширения, универсальный ИИ уступает место специализированному ИИ;
Капитал больше заботится о верификации бизнес-моделей, проекты с наличным потоком явно более предпочтительны;
Приложение: Описание проекта, анализ ключевых моментов, личное мнение:
1、 @yupp_ai
Описание проекта: децентрализованная платформа оценки AI моделей, в июне завершила этап посевного финансирования на сумму 33 миллиона долларов, ведущим инвестором выступил a16z, также инвестировал Джефф Дин.
Анализ ключевых моментов: применение преимущества субъективного суждения человека к недостаткам оценки ИИ. С помощью краудсорсинга были оценены более 500 больших моделей, обратная связь от пользователей может быть обменена на наличные (1000 баллов = 1 доллар), что привлекло такие компании, как OpenAI, для закупки данных, что создает реальный денежный поток.
Личный отзыв: Проект с довольно ясной бизнес-моделью, это не просто модель сжигания денег. Однако борьба с подделкой заказов является большой проблемой, алгоритм противодействия атаке "ведьм" должен постоянно оптимизироваться. Но судя по размеру финансирования в 33 миллиона долларов, капитал явно больше ценит проекты с проверенной возможностью монетизации.
2、 @Gradient_HQ
Описание проекта: децентрализованная сеть вычислений на основе ИИ, в июне завершила посевной раунд на 10 миллионов долларов, лидирующие инвестиции от Pantera Capital и Multicoin Capital.
Анализ ключевых моментов: с помощью плагина браузера Sentry Nodes уже достигнуто определенное рыночное согласие в области Solana DePIN, члены команды пришли из Helium и других компаний, недавно был представлен протокол передачи данных Lattica и движок вывода Parallax, которые проводили существенные исследования в области периферийных вычислений и проверяемости данных, что позволяет снизить задержку на 40% и поддерживает подключение гетерогенных устройств.
Личный отзыв: Направление верное, как раз соответствует тенденции локализации ИИ «углубления». Однако при выполнении сложных задач необходимо сравнивать эффективность с централизованными платформами, стабильность периферийных узлов все еще является проблемой. Тем не менее, периферийные вычисления - это новая необходимость, возникшая из внутренней конкуренции web2AI, а также преимущество распределенной структуры web3AI, поэтому я надеюсь на продвижение практических продуктов с конкретными показателями производительности.
3、 @PublicAI_
Описание проекта: децентрализованная платформа инфраструктуры данных AI, которая с помощью токенов стимулирует глобальных пользователей вносить данные из различных областей (медицина, автономное вождение, голос и т.д.), общий доход составил более 14 миллионов долларов, создана сеть с миллионом участников, вносящих данные.
Анализ ключевых моментов: с технической точки зрения интеграция ZK-верификации и алгоритма консенсуса BFT обеспечивает качество данных, а также использована технология конфиденциальных вычислений Amazon Nitro Enclaves для соблюдения требований к соблюдению законодательства. Интересно, что был представлен устройство для сбора мозговых волн HeadCap, что можно считать расширением от программного обеспечения к аппаратному обеспечению. Экономическая модель также хорошо спроектирована: пользователь может заработать 16 долларов + 500000 баллов за 10 часов голосовой разметки, а затраты предприятий на подписку на услуги данных могут снизиться на 45%.
Личное мнение: считаю, что главная ценность этого проекта заключается в реальной потребности в маркировке данных с использованием ИИ, особенно в таких областях, как медицина и автономное вождение, где требования к качеству данных и соблюдению норм очень высоки. Однако 20% уровень ошибок всё же выше, чем 10% у традиционных платформ, и колебания качества данных — это проблема, которую необходимо постоянно решать. Направление интерфейса мозг-компьютер довольно многообещающее, но трудности выполнения также немалые.
Описание проекта: распределенная вычислительная сеть на блокчейне Solana, в июне завершила финансирование на сумму 10,8 миллиона долларов, ведущим инвестором является OakStone Ventures.
Анализ ключевых момент: с помощью технологии динамического шардирования агрегируются неиспользуемые ресурсы GPU, поддерживается вывод больших моделей, таких как Llama3-405B, стоимость ниже на 40% по сравнению с AWS. Дизайн токенизированной торговли данными довольно интересен, он напрямую превращает вкладчиков вычислительной мощности в заинтересованные стороны и может стимулировать большее участие людей в сети.
Личное мнение: типичная модель «агрегации неиспользуемых ресурсов», логически это имеет смысл. Но 15% уровень ошибок в кросс-цепочном валидации действительно высок, техническая стабильность требует дальнейшей доработки. Тем не менее, в сценариях 3D-рендеринга, где требования к времени отклика не так высоки, это действительно имеет свои преимущества, главное - это снизить уровень ошибок, иначе даже самая лучшая бизнес-модель будет страдать от технических проблем.
5、 @olaxbt_terminal
Описание проекта: Платформа высокочастотной торговли криптовалютами на основе ИИ, завершившая посевной раунд в 3,38 миллиона долларов в июне, @ambergroup_io
Ведущий инвестор.
Анализ ключевых моментов: технология MCP может динамически оптимизировать торговые пути, снижая проскальзывание, что приводит к повышению эффективности на 30%. В соответствии с трендом #AgentFi, это можно считать нахождением точки входа в относительно незаполненную нишу алгоритмической торговли в DeFi, что, в свою очередь, заполняет рыночный спрос.
Личный отзыв: Направление верное, DeFi действительно нуждается в более умных торговых инструментах. Однако высокочастотная торговля требует очень высокой скорости и точности, поэтому необходимо проверить реальную согласованность предсказаний ИИ и выполнения на блокчейне. Кроме того, атаки MEV представляют собой большой риск, и технические меры защиты должны соответствовать этому.