Informe de investigación de AI Layer1: Seis proyectos compiten por la Descentralización de la infraestructura de IA

Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI en la cadena

Resumen

En los últimos años, compañías líderes en tecnología como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de modelos de lenguaje grandes (LLM). Los LLM han mostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso demostrando el potencial de sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Gracias a su sólido capital y al control de costosos recursos de cómputo, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.

Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se dirige hacia el "bien" o hacia el "mal" se volverá cada vez más pronunciada, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar proactivamente estos desafíos.

La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ha brindado nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, y la propiedad meme es excesiva, lo que dificulta el sostén de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena aún presenta limitaciones en cuanto a la capacidad del modelo, el uso de datos y los escenarios de aplicación, lo que requiere una mejora en la profundidad y amplitud de la innovación.

Para lograr verdaderamente la visión de la IA descentralizada, hacer que la cadena de bloques pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una cadena de bloques Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta en IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.

Biteye y PANews publican conjuntamente el informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en cadena

Las características clave de AI Layer 1

AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene su arquitectura subyacente y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo sostenible y la prosperidad del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades centrales:

  1. Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos como poder de cómputo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas, ya que no solo deben proporcionar poder de cómputo y completar el entrenamiento e inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversos, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores requisitos para el consenso subyacente y los mecanismos de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, asegurando la seguridad de la red y la asignación eficiente de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total del poder de cómputo.

  2. Excelente rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, requieren un alto rendimiento computacional y capacidades de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La Capa 1 de IA debe ser profundamente optimizada en su arquitectura subyacente para satisfacer las necesidades de alto rendimiento, baja latencia y paralelismo flexible, y preconfigurar la capacidad de soporte nativa para recursos de computación heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas únicas" a un "ecosistema complejo y diverso".

  3. Verificabilidad y garantía de salida confiable AI Layer 1 no solo debe prevenir el mal uso de los modelos y la manipulación de datos, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de IA. A través de la integración de entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK), y cálculos seguros multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificados de forma independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a aclarar la lógica y la base de la salida de IA, logrando "lo que se obtiene es lo que se desea", incrementando la confianza y satisfacción de los usuarios en los productos de IA.

  4. Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios; en campos como las finanzas, la salud y las redes sociales, la protección de la privacidad de los datos es especialmente crucial. AI Layer 1 debe adoptar tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación de privacidad y gestión de permisos de datos, garantizando la verificabilidad y la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el uso indebido de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.

  5. Capacidad poderosa de soporte y desarrollo de ecosistemas Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe ser tecnológicamente avanzada, sino que también debe proporcionar herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos para los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA. A través de la optimización continua de la disponibilidad de la plataforma y la experiencia del desarrollador, se promoverá la implementación de aplicaciones nativas de IA diversas y ricas, logrando la prosperidad continua del ecosistema de IA descentralizado.

Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual de desarrollo de los proyectos y explorando las tendencias futuras.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

Sentient: Construir modelos de IA descentralizados de código abierto y leales

Resumen del proyecto

Sentient es una plataforma de protocolo de código abierto que está creando una blockchain de AI Layer1 ( en la fase inicial como Layer 2, y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de pertenencia a modelos, seguimiento de invocaciones y distribución de valor en el mercado de LLM centralizado mediante el marco "OML" (, que es abierto, rentable y leal ), permitiendo que los modelos de AI logren una estructura de propiedad en la cadena, transparencia en las invocaciones y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de AI, impulsando así un ecosistema de red de agentes de AI justo y abierto.

El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables de la seguridad y privacidad de la IA, mientras que el cofundador de Polygon, Sandeep Nailwal, lidera la estrategia blockchain y la disposición ecológica. Los miembros del equipo tienen antecedentes en empresas reconocidas como Meta, Coinbase, Polygon, así como en universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, abarcando campos como AI/ML, NLP, visión por computadora, colaborando para impulsar la implementación del proyecto.

Como el segundo proyecto empresarial de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, poseyendo recursos abundantes, conexiones y un reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación de semillas de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras decenas de reconocidas firmas de capital riesgo como Delphi, Hashkey y Spartan.

Biteye y PANews publican conjuntamente el informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

arquitectura de diseño y capa de aplicación

Capa de infraestructura

Arquitectura central

La arquitectura central de Sentient está compuesta por dos partes: AI Pipeline( y el sistema de cadena de bloques.

El canal de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:

  • Curación de datos ): un proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
  • Entrenamiento de Lealtad (: Asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.

Los sistemas de blockchain proporcionan transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:

  • Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
  • Capa de distribución: entrada de llamada del modelo controlado por contrato de autorización;
  • Capa de acceso: Verifica si el usuario está autorizado a través de la prueba de permisos;
  • Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago en cada llamada a los entrenadores, desplegadores y validadores.

)## Marco de modelo OML

El marco OML ( es Abierto, Monetizable, leal ), y es la idea central propuesta por Sentient, diseñada para proporcionar protección clara de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, presenta las siguientes características:

  • Apertura: El modelo debe ser de código abierto, con código y estructuras de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
  • Monetización: Cada llamada al modelo desencadenará un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, implementadores y validadores.
  • Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de las actualizaciones y la gobernanza son decididas por la DAO, y su uso y modificación están controlados por mecanismos criptográficos.
AI nativa criptografía(AI-native Cryptography)

La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedad de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:

  • Huella dactilar incrustada: durante el entrenamiento se inserta un conjunto de pares clave-valor de consulta-respuesta ocultos para formar la firma única del modelo;
  • Protocolo de verificación de propiedad: verifica si la huella dactilar se conserva a través del detector de terceros ###Prover( en forma de consulta.
  • Mecanismo de llamada con licencia: antes de llamar, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema otorgará permiso al modelo para decodificar la entrada y devolver la respuesta precisa.

Este método puede lograr "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin costo de re-encriptación.

)## Marco de ejecución segura y derechos de modelo

Sentient actualmente utiliza Melange mezcla de seguridad: combinación de derechos de propiedad mediante huellas dactilares, ejecución TEE y distribución de ganancias mediante contratos on-chain. El método de huellas dactilares se implementa en la línea principal OML 1.0, enfatizando la idea de "seguridad optimista ( Optimistic Security )", es decir, conformidad por defecto y posibilidad de detección y castigo en caso de incumplimiento.

El mecanismo de huellas dactilares es una implementación clave de OML, que a través de la incorporación de pares específicos de "pregunta-respuesta", permite que el modelo genere una firma única durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable del comportamiento de uso del modelo.

Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables ### como AWS Nitro Enclaves ( para garantizar que los modelos solo respondan a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, su alto rendimiento y ventajas en tiempo real lo convierten en la tecnología central para el despliegue actual de modelos.

En el futuro, Sentient planea introducir pruebas de conocimiento cero )ZK( y cifrado homomórfico )FHE(, para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando soluciones más maduras para el despliegue descentralizado de modelos de IA.

)# Capa de aplicación

Actualmente, los productos de Sentient incluyen principalmente la plataforma de chat descentralizada Sentient Chat, la serie de modelos de código abierto Dobby y el marco de AI Agent.

(## Dobby serie 模

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
CafeMinorvip
· hace21h
Ay, varios oligarcas quieren monopolizar, ¿qué puede hacer un pequeño minero?
Ver originalesResponder0
FrontRunFightervip
· hace22h
otro bosque oscuro lleno de MEV donde gran tecnología explotará su posición... la transparencia está muerta en el juego de monopolio de la IA fr
Ver originalesResponder0
GasFeeThundervip
· hace22h
La tasa de mortalidad calculada por hora L1 generalmente no ha sobrevivido más de tres meses.
Ver originalesResponder0
NFTRegretDiaryvip
· hace22h
con el capital hay un der
Ver originalesResponder0
MemeKingNFTvip
· hace22h
Las grandes empresas monopolizan mientras se levanta la tormenta. ¿Está el pequeño inversor feliz con otro paquete de bull run?
Ver originalesResponder0
DarkPoolWatchervip
· hace22h
Lo que se ve no se dice.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)