AI Layer1 Arena: Encontrar la tierra fértil de DeAI en la cadena
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran escala (LLM). Los LLM han mostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso demostrando el potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de un pequeño número de gigantes tecnológicos centralizados. Gracias a su sólido capital y al control de recursos de computación de alto costo, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que brinda la tecnología, mientras que la atención a cuestiones fundamentales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se "dirige hacia el bien" o "hacia el mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en algunas blockchains principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, ya que los procesos clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena todavía muestra limitaciones en términos de capacidad de modelos, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de una IA descentralizada, permitir que la blockchain soporte aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la democracia en la gobernanza y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, su arquitectura subyacente y el diseño de rendimiento están estrechamente relacionados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismos de consenso descentralizado y de incentivos eficientes
El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 necesitan asumir tareas más complejas; no solo deben proporcionar potencia de cálculo y completar el entrenamiento e inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir eficazmente el costo total de la potencia de cálculo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas
Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean altas exigencias en cuanto al rendimiento computacional y la capacidad de procesamiento paralelo. Más allá de eso, el ecosistema de IA on-chain a menudo necesita soportar tipos de tareas diversas y heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios variados. La Capa 1 de IA debe estar profundamente optimizada en su arquitectura subyacente para satisfacer las demandas de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y debe tener capacidades de soporte nativo para recursos de computación heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas de tipo único" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable
AI Layer 1 no solo debe prevenir riesgos de seguridad como el mal uso de modelos y la alteración de datos, sino que también debe garantizar desde el mecanismo de base la verificabilidad y alineación de los resultados producidos por la IA. Al integrar tecnologías de vanguardia como Entornos de Ejecución Confiables (TEE), Pruebas de Conocimiento Cero (ZK) y Cálculo Seguro Multilateral (MPC), la plataforma permite que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también ayuda a los usuarios a entender la lógica y los fundamentos de las salidas de la IA, logrando que "lo que se obtiene sea lo que se desea", aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de los datos
Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en campos como las finanzas, la salud y las redes sociales, la protección de la privacidad de los datos es especialmente crucial. AI Layer 1 debe adoptar tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, asegurando la seguridad de los datos durante todo el proceso de inferencia, entrenamiento y almacenamiento, evitando de manera efectiva la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo de ecosistemas.
Como una infraestructura de capa 1 nativa de IA, la plataforma no solo debe tener una ventaja técnica, sino que también debe proporcionar herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivo para los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA. Al optimizar continuamente la disponibilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones de IA nativas ricas y diversas, logrando la prosperidad continua de un ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado actual del desarrollo de los proyectos y explorando tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados y de código abierto leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una cadena de bloques de IA Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline y la tecnología de cadena de bloques, está construyendo una economía de inteligencia artificial descentralizada. Su objetivo central es resolver los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y participación en el valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y la privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y el diseño ecológico. Los antecedentes de los miembros del equipo abarcan empresas conocidas como Meta, Coinbase, Polygon, así como universidades de renombre como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como AI/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como el proyecto de segunda empresa de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su inicio, con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones de inversión como Delphi, Hashkey y Spartan, entre decenas de VC reconocidos.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura Central
La arquitectura central de Sentient se compone de dos partes: el Pipeline de IA (AI Pipeline) y el sistema de blockchain.
La tubería de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", e incluye dos procesos clave:
Curación de Datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de lealtad (Loyalty Training): Asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacena los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo controlada por el contrato de autorización;
Capa de acceso: verificar si el usuario está autorizado a través de la prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago de cada llamada a los entrenadores, desplegadores y verificadores.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar protección clara de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructura de datos transparentes, para facilitar la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada llamada al modelo generará un flujo de ingresos, el contrato en cadena distribuirá los ingresos a los entrenadores, implementadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de las actualizaciones y la gobernanza son decididas por la DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedad de baja dimensión y la característica de diferenciabilidad de los modelos para desarrollar un mecanismo de seguridad ligero que es "verificable pero no removible". Su tecnología central es:
Incrustación de huellas dactilares: al entrenar, se inserta un conjunto de pares clave-valor de query-respuesta ocultos para formar la firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella dactilar se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada autorizado: antes de la llamada, se debe obtener un "certificado de autorización" emitido por el propietario del modelo, y el sistema autorizara al modelo a decodificar la entrada y devolver la respuesta precisa.
Este método permite realizar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución segura y de derechos de modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de certificación por huellas dactilares, ejecución TEE y reparto de beneficios mediante contratos on-chain. El método de huellas dactilares se implementa en OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con la posibilidad de detectar y sancionar en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar una firma única durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la propiedad, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable en la cadena de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, evitando el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para el despliegue actual de modelos.
En el futuro, Sentient planea introducir tecnologías de prueba de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando un despliegue descentralizado de modelos de IA.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
15 me gusta
Recompensa
15
7
Republicar
Compartir
Comentar
0/400
ForkTongue
· hace17h
Los gigantes se llevan todo, el inversor minorista sigue perdiendo.
Ver originalesResponder0
ser_we_are_ngmi
· hace17h
Ha jugado un año en web3 y aún no ha terminado, ngmi
Ver originalesResponder0
just_another_fish
· hace17h
Para que estos juguetes de IA funcionen bien, hay que ver la cara de los expertos.
Ver originalesResponder0
fomo_fighter
· hace17h
El desarrollador se ha muerto.
Ver originalesResponder0
SchrödingersNode
· hace17h
Otra vez tratando de hacerse notar.
Ver originalesResponder0
FarmHopper
· hace17h
La potencia computacional todavía depende de las grandes empresas, los pequeños equipos no pueden manejarlo.
Ver originalesResponder0
ForkMonger
· hace17h
solo otro honeypot de centralización... el darwinismo de protocolos los devorará vivos
Guerra de cadenas públicas nativas de IA: Sentient y otros cinco proyectos compiten por el mercado DeAI en cadena.
AI Layer1 Arena: Encontrar la tierra fértil de DeAI en la cadena
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran escala (LLM). Los LLM han mostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso demostrando el potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de un pequeño número de gigantes tecnológicos centralizados. Gracias a su sólido capital y al control de recursos de computación de alto costo, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que brinda la tecnología, mientras que la atención a cuestiones fundamentales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se "dirige hacia el bien" o "hacia el mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en algunas blockchains principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, ya que los procesos clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena todavía muestra limitaciones en términos de capacidad de modelos, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de una IA descentralizada, permitir que la blockchain soporte aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la democracia en la gobernanza y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, su arquitectura subyacente y el diseño de rendimiento están estrechamente relacionados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismos de consenso descentralizado y de incentivos eficientes El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 necesitan asumir tareas más complejas; no solo deben proporcionar potencia de cálculo y completar el entrenamiento e inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir eficazmente el costo total de la potencia de cálculo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean altas exigencias en cuanto al rendimiento computacional y la capacidad de procesamiento paralelo. Más allá de eso, el ecosistema de IA on-chain a menudo necesita soportar tipos de tareas diversas y heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios variados. La Capa 1 de IA debe estar profundamente optimizada en su arquitectura subyacente para satisfacer las demandas de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y debe tener capacidades de soporte nativo para recursos de computación heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas de tipo único" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable AI Layer 1 no solo debe prevenir riesgos de seguridad como el mal uso de modelos y la alteración de datos, sino que también debe garantizar desde el mecanismo de base la verificabilidad y alineación de los resultados producidos por la IA. Al integrar tecnologías de vanguardia como Entornos de Ejecución Confiables (TEE), Pruebas de Conocimiento Cero (ZK) y Cálculo Seguro Multilateral (MPC), la plataforma permite que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también ayuda a los usuarios a entender la lógica y los fundamentos de las salidas de la IA, logrando que "lo que se obtiene sea lo que se desea", aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en campos como las finanzas, la salud y las redes sociales, la protección de la privacidad de los datos es especialmente crucial. AI Layer 1 debe adoptar tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, asegurando la seguridad de los datos durante todo el proceso de inferencia, entrenamiento y almacenamiento, evitando de manera efectiva la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo de ecosistemas. Como una infraestructura de capa 1 nativa de IA, la plataforma no solo debe tener una ventaja técnica, sino que también debe proporcionar herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivo para los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA. Al optimizar continuamente la disponibilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones de IA nativas ricas y diversas, logrando la prosperidad continua de un ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado actual del desarrollo de los proyectos y explorando tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados y de código abierto leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una cadena de bloques de IA Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline y la tecnología de cadena de bloques, está construyendo una economía de inteligencia artificial descentralizada. Su objetivo central es resolver los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y participación en el valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y la privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y el diseño ecológico. Los antecedentes de los miembros del equipo abarcan empresas conocidas como Meta, Coinbase, Polygon, así como universidades de renombre como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como AI/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como el proyecto de segunda empresa de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su inicio, con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones de inversión como Delphi, Hashkey y Spartan, entre decenas de VC reconocidos.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura Central
La arquitectura central de Sentient se compone de dos partes: el Pipeline de IA (AI Pipeline) y el sistema de blockchain.
La tubería de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", e incluye dos procesos clave:
El sistema de blockchain proporciona transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar protección clara de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedad de baja dimensión y la característica de diferenciabilidad de los modelos para desarrollar un mecanismo de seguridad ligero que es "verificable pero no removible". Su tecnología central es:
Este método permite realizar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución segura y de derechos de modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de certificación por huellas dactilares, ejecución TEE y reparto de beneficios mediante contratos on-chain. El método de huellas dactilares se implementa en OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con la posibilidad de detectar y sancionar en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar una firma única durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la propiedad, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable en la cadena de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, evitando el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para el despliegue actual de modelos.
En el futuro, Sentient planea introducir tecnologías de prueba de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando un despliegue descentralizado de modelos de IA.