Explorando el fértil terreno de DeAI on-chain: estado actual y perspectivas futuras del desarrollo de AI Layer1
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un sólido capital y el control de costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas impactarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA debe "actuar para el bien" o "actuar para el mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la suficiente motivación para enfrentar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en blockchains principales como Solana y Base. Sin embargo, un análisis profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave e infraestructuras siguen dependiendo de servicios en la nube centralizados, con una fuerte carga de atributos meme, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena muestra limitaciones en capacidades de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación aún deben mejorar.
Para realizar verdaderamente la visión de la IA descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta en IA, la democracia en la gobernanza y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de la capa 1 de IA
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene su arquitectura subyacente y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenibles del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe tener las siguientes capacidades fundamentales:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos como poder de cómputo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en el registro de la contabilidad, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando poder de cómputo y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente asignación de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total del poder de cómputo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, requieren un rendimiento computacional y una capacidad de procesamiento paralelo extremadamente alta. Además, el ecosistema de IA en la cadena a menudo necesita soportar una diversidad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. Layer 1 de IA debe optimizarse profundamente en su arquitectura subyacente para satisfacer las demandas de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y prever capacidades de soporte nativas para recursos de computación heterogénea, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas de tipo único" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de resultados confiables AI Layer 1 no solo debe prevenir la malicia del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar desde el mecanismo fundamental la verificabilidad y alineación de los resultados de salida de la IA. A través de la integración de entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK), cálculos seguros multipartitos (MPC) y otras tecnologías de vanguardia, la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de forma independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a clarificar la lógica y la base de la salida de la IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios hacia los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crítica en los campos financiero, médico y social. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que utiliza tecnologías de procesamiento de datos basadas en criptografía, protocolos de cálculo de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el uso indebido de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Poderosa capacidad de soporte y desarrollo del ecosistema Como infraestructura Layer 1 nativa de IA, la plataforma no solo debe tener liderazgo técnico, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de diversas aplicaciones nativas de IA, logrando la prosperidad continua de un ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: construir un modelo de IA descentralizado y de código abierto leal.
Descripción del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain AI Layer1 ( en la fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline y la tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de pertenencia de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquiera pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables respectivamente de la seguridad y la protección de la privacidad de la IA, mientras que Sandeep Nailwal, cofundador de una plataforma de intercambio, lidera la estrategia blockchain y el diseño del ecosistema. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta y Coinbase, así como universidades de primer nivel como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como el proyecto de segunda empresa del cofundador de una plataforma de intercambio, Sandeep Nailwal, Sentient llegó con un halo desde su creación, poseyendo abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un poderoso respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones de inversión, incluyendo Delphi, Hashkey y Spartan, entre varias decenas de conocidas firmas de capital de riesgo.
Diseño de arquitectura y capa de aplicación
Infraestructura
arquitectura central
La arquitectura central de Sentient se compone de dos partes: un canal de IA (AI Pipeline) y un sistema de blockchain.
El canal de IA es la base para desarrollar y entrenar artefactos de "IA leal", que incluye dos procesos centrales:
Curaduría de Datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de Lealtad (Loyalty Training): asegurar que el modelo mantenga un proceso de entrenamiento coherente con la intención de la comunidad.
Los sistemas de blockchain ofrecen transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacena los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo controlado por contrato de autorización;
Capa de acceso: verifica si el usuario está autorizado a través de la prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago en cada llamada a los entrenadores, implementadores y validadores.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructura de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada llamada al modelo desencadenará un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, implementadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por el DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las propiedades de diferenciabilidad de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Huella digital incrustada: durante el entrenamiento se inserta un conjunto de pares clave-valor de consulta-respuesta ocultos para formar una firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella digital se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada permitida: antes de la llamada, se debe obtener un "certificado de autorización" emitido por el propietario del modelo, y el sistema autorizará al modelo a decodificar la entrada y devolver la respuesta precisa.
Este método permite implementar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.
Marco de ejecución segura y certificación de modelos
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de certificación por huella digital, ejecución TEE y reparto de beneficios de contratos on-chain. El método de huella digital se implementa en la línea principal OML 1.0, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, asumiendo cumplimiento por defecto, y se puede detectar y castigar en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento mediante la incorporación de pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la pertenencia, previniendo copias no autorizadas y la comercialización. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable en la cadena de bloques sobre el uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución de confianza (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, evitando el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en una opción atractiva.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
6
Compartir
Comentar
0/400
NftMetaversePainter
· 07-12 17:05
meh... otro intento de web2 en el arte algorítmico que se disfraza de innovación. despiértame cuando comprendan la verdadera estética computacional
Ver originalesResponder0
DeFiChef
· 07-12 07:12
Entenderlo bien, el monopolio de las grandes empresas es una gran trampa.
Ver originalesResponder0
BlockchainWorker
· 07-09 20:19
No puedo seguir el ritmo de la competencia de la IA.
Ver originalesResponder0
GateUser-5854de8b
· 07-09 20:17
¡Monopolio de los gigantes, ¿cómo juegan las personas comunes!?
Ver originalesResponder0
MrRightClick
· 07-09 20:10
Desde hace tiempo se dice que web3 es el futuro de la IA.
Ver originalesResponder0
ChainPoet
· 07-09 20:05
¿A quién le importan las grandes empresas? La libertad descentralizada es el camino a seguir.
AI Layer1 Cadena de bloques: la piedra angular y el futuro de la Descentralización AI
Explorando el fértil terreno de DeAI on-chain: estado actual y perspectivas futuras del desarrollo de AI Layer1
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un sólido capital y el control de costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas impactarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA debe "actuar para el bien" o "actuar para el mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la suficiente motivación para enfrentar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en blockchains principales como Solana y Base. Sin embargo, un análisis profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave e infraestructuras siguen dependiendo de servicios en la nube centralizados, con una fuerte carga de atributos meme, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena muestra limitaciones en capacidades de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación aún deben mejorar.
Para realizar verdaderamente la visión de la IA descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta en IA, la democracia en la gobernanza y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de la capa 1 de IA
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene su arquitectura subyacente y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenibles del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe tener las siguientes capacidades fundamentales:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos como poder de cómputo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en el registro de la contabilidad, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando poder de cómputo y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente asignación de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total del poder de cómputo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, requieren un rendimiento computacional y una capacidad de procesamiento paralelo extremadamente alta. Además, el ecosistema de IA en la cadena a menudo necesita soportar una diversidad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. Layer 1 de IA debe optimizarse profundamente en su arquitectura subyacente para satisfacer las demandas de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y prever capacidades de soporte nativas para recursos de computación heterogénea, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas de tipo único" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de resultados confiables AI Layer 1 no solo debe prevenir la malicia del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar desde el mecanismo fundamental la verificabilidad y alineación de los resultados de salida de la IA. A través de la integración de entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK), cálculos seguros multipartitos (MPC) y otras tecnologías de vanguardia, la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de forma independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a clarificar la lógica y la base de la salida de la IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios hacia los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crítica en los campos financiero, médico y social. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que utiliza tecnologías de procesamiento de datos basadas en criptografía, protocolos de cálculo de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el uso indebido de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Poderosa capacidad de soporte y desarrollo del ecosistema Como infraestructura Layer 1 nativa de IA, la plataforma no solo debe tener liderazgo técnico, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de diversas aplicaciones nativas de IA, logrando la prosperidad continua de un ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: construir un modelo de IA descentralizado y de código abierto leal.
Descripción del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain AI Layer1 ( en la fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline y la tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de pertenencia de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquiera pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables respectivamente de la seguridad y la protección de la privacidad de la IA, mientras que Sandeep Nailwal, cofundador de una plataforma de intercambio, lidera la estrategia blockchain y el diseño del ecosistema. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta y Coinbase, así como universidades de primer nivel como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como el proyecto de segunda empresa del cofundador de una plataforma de intercambio, Sandeep Nailwal, Sentient llegó con un halo desde su creación, poseyendo abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un poderoso respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones de inversión, incluyendo Delphi, Hashkey y Spartan, entre varias decenas de conocidas firmas de capital de riesgo.
Diseño de arquitectura y capa de aplicación
Infraestructura
arquitectura central
La arquitectura central de Sentient se compone de dos partes: un canal de IA (AI Pipeline) y un sistema de blockchain.
El canal de IA es la base para desarrollar y entrenar artefactos de "IA leal", que incluye dos procesos centrales:
Los sistemas de blockchain ofrecen transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar una clara protección de propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las propiedades de diferenciabilidad de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este método permite implementar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.
Marco de ejecución segura y certificación de modelos
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de certificación por huella digital, ejecución TEE y reparto de beneficios de contratos on-chain. El método de huella digital se implementa en la línea principal OML 1.0, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, asumiendo cumplimiento por defecto, y se puede detectar y castigar en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento mediante la incorporación de pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la pertenencia, previniendo copias no autorizadas y la comercialización. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable en la cadena de bloques sobre el uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución de confianza (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, evitando el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en una opción atractiva.