Explorer le sol fertile de DeAI off-chain : État actuel et perspectives d'avenir du développement de l'IA Layer1
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont constamment poussé au développement rapide des grands modèles de langage (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel de remplacement du travail humain. Cependant, le cœur de ces technologies est solidement contrôlé par quelques géants technologiques centralisés. Grâce à des capitaux solides et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence pour la grande majorité des développeurs et des équipes d'innovation extrêmement difficile.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et la commodité offertes par la technologie, tandis que l'attention portée à des problèmes fondamentaux tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur la nature "bienveillante" ou "malveillante" de l'IA deviendra de plus en plus prononcé, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la dynamique nécessaire pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur des blockchains majeures telles que Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, et la propriété meme est trop forte, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits AI du monde Web2, l'IA on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'IA décentralisée, afin que la blockchain puisse porter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et rivaliser en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer1 spécifiquement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement alignés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul et effectuer l'entraînement et l'inférence de modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela impose des exigences plus élevées en matière de consensus de base et de mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la distribution efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Performance élevée exceptionnelle et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, nécessitent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge une diversité de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage, et d'autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, faible latence et parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent s'exécuter efficacement, réalisant une extension fluide de "tâches uniques" à "écosystèmes complexes et divers."
Vérifiabilité et garantie de sortie fiable AI Layer 1 doit non seulement prévenir les comportements malveillants des modèles et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau fondamental. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque inférence, entraînement et processus de traitement des données du modèle d'être vérifié de manière indépendante, assurant l'équité et la transparence du système d'IA. En outre, cette vérifiabilité peut également aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce que l'on obtient est ce que l'on souhaite", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et la protection de la vie privée des données est particulièrement cruciale dans des domaines tels que la finance, la santé et les réseaux sociaux. AI Layer 1 doit, tout en garantissant la vérifiabilité, adopter des technologies de traitement des données basées sur le cryptage, des protocoles de calcul privé et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant ainsi les inquiétudes des utilisateurs concernant la sécurité des données.
Capacités puissantes de support et de développement de l'écosystème En tant qu'infrastructure Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, on favorise le déploiement d'applications IA natives diversifiées et riches, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en passant en revue les derniers développements du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : construire un modèle IA décentralisé et open source de fidélité
Aperçu du projet
Sentient est une plateforme de protocole open source, en train de créer une blockchain AI Layer1 (, à ses débuts en tant que Layer 2, puis elle sera migrée vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA de réaliser une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, travaillant à la construction d'une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur d'une plateforme d'échange, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe proviennent d'entreprises renommées telles que Meta, Coinbase, ainsi que des établissements d'enseignement supérieur tels que l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que co-fondateur de la plateforme d'échange, le projet de deuxième entreprise de Sandeep Nailwal, Sentient, a dès ses débuts bénéficié d'une aura, possédant des ressources riches, des connexions et une reconnaissance sur le marché, ce qui a fourni un puissant soutien au développement du projet. À la mi-2024, Sentient a complété un tour de financement de graines de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres institutions d'investissement incluant Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
Architecture de conception et couche d'application
Infrastructure Layer
architecture centrale
L'architecture de base de Sentient est composée de deux parties : un pipeline AI (AI Pipeline) et un système de blockchain.
Le pipeline d'IA est la base du développement et de l'entraînement des artefacts de "IA loyale", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : s'assurer que le modèle maintienne un processus de formation cohérent avec les intentions de la communauté.
Le système de blockchain offre transparence et contrôle décentralisé pour le protocole, assurant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes.
Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
Couche d'accès : vérifie si l'utilisateur est autorisé par la validation de la preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus attribue chaque paiement lors de chaque appel aux formateurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et un mécanisme d'incitation économique pour les modèles AI open source. En combinant la technologie off-chain et la cryptographie native AI, il possède les caractéristiques suivantes :
Ouverture : le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel au modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre le formateur, le déployeur et le vérificateur.
Fidélité : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, et l'utilisation et la modification sont contrôlées par un mécanisme cryptographique.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de basse dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale intégrée : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de propriété : vérifier si l'empreinte digitale est conservée par le biais d'un détecteur tiers (Prover) sous forme de requête.
Mécanisme d'appel autorisé : Avant d'effectuer un appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, et le système autorisera ensuite le modèle à décoder cette entrée et à retourner une réponse précise.
Cette méthode permet de réaliser "appels autorisés basés sur le comportement + validation d'appartenance" sans coûts de re-chiffrement.
Modèle de validation et cadre d'exécution sécurisée
Sentient utilise actuellement la sécurité Melange mixte : combinaison de l'authentification par empreinte digitale, de l'exécution TEE et du partage de bénéfices des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0 comme fil conducteur, soulignant l'idée de "Sécurité Optimiste", c'est-à-dire une conformité par défaut, avec détection et sanction en cas de violation.
Le mécanisme de l'empreinte digitale est une réalisation clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la reproduction et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs du modèle, mais fournit également un enregistrement traçable de l'utilisation du modèle off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi les accès et utilisations non autorisés. Bien que TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de réactivité en font une solution attrayante.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
6
Partager
Commentaire
0/400
NftMetaversePainter
· 07-12 17:05
meh... une autre tentative web2 d'art algorithmiquepretendant être une innovation. réveillez-moi quand ils saisiront la véritable esthétique computationnelle.
Voir l'originalRépondre0
DeFiChef
· 07-12 07:12
J'ai compris, le monopole des grandes entreprises est un grand piège.
Voir l'originalRépondre0
BlockchainWorker
· 07-09 20:19
Je ne peux pas suivre cette intensité de l'IA.
Voir l'originalRépondre0
GateUser-5854de8b
· 07-09 20:17
Les géants monopolisent, comment les gens ordinaires peuvent-ils jouer !?
Voir l'originalRépondre0
MrRightClick
· 07-09 20:10
Il est temps de dire que le web3 est vraiment l'avenir de l'IA.
Voir l'originalRépondre0
ChainPoet
· 07-09 20:05
Qui se soucie de la façon dont les géants jouent ~ la liberté décentralisée est le vrai chemin.
AI Layer1 Blockchain : La pierre angulaire et l'avenir de l'IA décentralisée
Explorer le sol fertile de DeAI off-chain : État actuel et perspectives d'avenir du développement de l'IA Layer1
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont constamment poussé au développement rapide des grands modèles de langage (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel de remplacement du travail humain. Cependant, le cœur de ces technologies est solidement contrôlé par quelques géants technologiques centralisés. Grâce à des capitaux solides et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence pour la grande majorité des développeurs et des équipes d'innovation extrêmement difficile.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et la commodité offertes par la technologie, tandis que l'attention portée à des problèmes fondamentaux tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur la nature "bienveillante" ou "malveillante" de l'IA deviendra de plus en plus prononcé, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la dynamique nécessaire pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur des blockchains majeures telles que Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, et la propriété meme est trop forte, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits AI du monde Web2, l'IA on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'IA décentralisée, afin que la blockchain puisse porter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et rivaliser en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer1 spécifiquement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement alignés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul et effectuer l'entraînement et l'inférence de modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela impose des exigences plus élevées en matière de consensus de base et de mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la distribution efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Performance élevée exceptionnelle et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, nécessitent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge une diversité de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage, et d'autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, faible latence et parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent s'exécuter efficacement, réalisant une extension fluide de "tâches uniques" à "écosystèmes complexes et divers."
Vérifiabilité et garantie de sortie fiable AI Layer 1 doit non seulement prévenir les comportements malveillants des modèles et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau fondamental. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque inférence, entraînement et processus de traitement des données du modèle d'être vérifié de manière indépendante, assurant l'équité et la transparence du système d'IA. En outre, cette vérifiabilité peut également aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce que l'on obtient est ce que l'on souhaite", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et la protection de la vie privée des données est particulièrement cruciale dans des domaines tels que la finance, la santé et les réseaux sociaux. AI Layer 1 doit, tout en garantissant la vérifiabilité, adopter des technologies de traitement des données basées sur le cryptage, des protocoles de calcul privé et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant ainsi les inquiétudes des utilisateurs concernant la sécurité des données.
Capacités puissantes de support et de développement de l'écosystème En tant qu'infrastructure Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, on favorise le déploiement d'applications IA natives diversifiées et riches, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en passant en revue les derniers développements du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : construire un modèle IA décentralisé et open source de fidélité
Aperçu du projet
Sentient est une plateforme de protocole open source, en train de créer une blockchain AI Layer1 (, à ses débuts en tant que Layer 2, puis elle sera migrée vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA de réaliser une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, travaillant à la construction d'une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur d'une plateforme d'échange, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe proviennent d'entreprises renommées telles que Meta, Coinbase, ainsi que des établissements d'enseignement supérieur tels que l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que co-fondateur de la plateforme d'échange, le projet de deuxième entreprise de Sandeep Nailwal, Sentient, a dès ses débuts bénéficié d'une aura, possédant des ressources riches, des connexions et une reconnaissance sur le marché, ce qui a fourni un puissant soutien au développement du projet. À la mi-2024, Sentient a complété un tour de financement de graines de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres institutions d'investissement incluant Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
Architecture de conception et couche d'application
Infrastructure Layer
architecture centrale
L'architecture de base de Sentient est composée de deux parties : un pipeline AI (AI Pipeline) et un système de blockchain.
Le pipeline d'IA est la base du développement et de l'entraînement des artefacts de "IA loyale", comprenant deux processus clés :
Le système de blockchain offre transparence et contrôle décentralisé pour le protocole, assurant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et un mécanisme d'incitation économique pour les modèles AI open source. En combinant la technologie off-chain et la cryptographie native AI, il possède les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de basse dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet de réaliser "appels autorisés basés sur le comportement + validation d'appartenance" sans coûts de re-chiffrement.
Modèle de validation et cadre d'exécution sécurisée
Sentient utilise actuellement la sécurité Melange mixte : combinaison de l'authentification par empreinte digitale, de l'exécution TEE et du partage de bénéfices des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0 comme fil conducteur, soulignant l'idée de "Sécurité Optimiste", c'est-à-dire une conformité par défaut, avec détection et sanction en cas de violation.
Le mécanisme de l'empreinte digitale est une réalisation clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la reproduction et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs du modèle, mais fournit également un enregistrement traçable de l'utilisation du modèle off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi les accès et utilisations non autorisés. Bien que TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de réactivité en font une solution attrayante.