Rapport de recherche approfondi sur l'IA Layer1 : à la recherche des terres fertiles pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination de l'humanité et montrant même, dans certains cas, le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement détenu par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières presque infranchissables, rendant difficile la concurrence pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentrait souvent sur les percées et les commodités offertes par la technologie, tandis que l'attention portée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité était relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité sociale. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait de savoir si l'IA "se dirige vers le bien" ou "vers le mal" deviendra de plus en plus saillant, et les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation pour relever ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur plusieurs blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent toujours des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA sur la chaîne présente encore des limites en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère de l'écosystème AI décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1 en tant que blockchain spécialement conçu pour les applications AI, son architecture sous-jacente et sa conception de performance sont étroitement axées sur les besoins des tâches AI, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace
Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé de ressources ouvertes telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence de modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure IA. Cela pose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, nécessitent des performances de calcul et des capacités de traitement parallèle extrêmement élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture de base pour répondre aux exigences de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, garantissant que toutes les tâches d'IA puissent fonctionner efficacement, permettant une extension fluide de "tâches unidimensionnelles" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable
L'AI Layer 1 doit non seulement prévenir les risques de sécurité tels que les abus de modèle et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA dès le mécanisme de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque processus d'inférence de modèle, d'entraînement et de traitement des données d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. De plus, cette vérifiabilité aide les utilisateurs à comprendre la logique et les bases des sorties de l'IA, réalisant "ce que l'on obtient est ce que l'on souhaite", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait garantir la vérifiabilité tout en utilisant des technologies de traitement de données basées sur le cryptage, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus de raisonnement, d'entraînement et de stockage, prévenant ainsi efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs concernant la sécurité des données.
Capacité puissante de support et de développement de l'écosystème
En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, on favorise le déploiement d'applications variées et riches basées sur l'IA, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs d'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en examinant les derniers développements du secteur, en analysant l'état actuel des projets et en discutant des tendances futures.
Sentient : Construire des modèles d'IA décentralisés open-source et fidèles.
Aperçu du projet
Sentient est une plateforme de protocole open-source qui construit une blockchain AI Layer1 (. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1). En combinant l'AI Pipeline et la technologie blockchain, elle vise à construire une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de valeur dans le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, afin de promouvoir un écosystème de réseau d'agents IA équitable et ouvert.
L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'institut indien de sciences, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur d'une plateforme d'échange, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans plusieurs entreprises de renom, ainsi que dans des établissements d'enseignement supérieur de premier plan comme l'université de Princeton et l'institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de seconde entreprise de Sandeep Nailwal, co-fondateur d'une plateforme d'échange renommée, Sentient a dès ses débuts bénéficié d'une aura, avec une riche ressource, un réseau et une reconnaissance sur le marché, offrant un puissant soutien au développement du projet. Mi-2024, Sentient a complété un financement de 85 millions de dollars en seed round, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres institutions d'investissement comprenant des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
conception de l'architecture et couche d'application
Infrastructure Layer
Architecture principale
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts de "l'IA loyale", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection de données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : assurer que le modèle maintienne un processus d'entraînement aligné avec l'intention de la communauté.
Le système blockchain fournit transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts AI, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches:
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes.
Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle;
Couche d'accès : vérifie si l'utilisateur est autorisé par la preuve d'autorisation ;
Couche d'incitation : Le contrat de routage des revenus attribue chaque appel de paiement aux formateurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et un mécanisme d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Ouverture : Le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain distribuera les revenus au formateur, au déployeur et au vérificateur.
Fidélité : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de basse dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former la signature unique du modèle;
Protocole de vérification de propriété : vérifier si l'empreinte est conservée par l'intermédiaire d'un détecteur tiers (Prover) sous forme de question query ;
Mécanisme d'appel autorisé : avant d'appeler, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, le système autorise ensuite le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet de réaliser "appel autorisé basé sur le comportement + vérification d'appartenance" sans coût de réencryption.
Modèle de reconnaissance des droits et cadre d'exécution sécurisée
Sentient utilise actuellement la sécurité Melange mixte : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des bénéfices par contrat on-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant l'idée de "sécurité optimiste (Optimistic Security)", c'est-à-dire présumer la conformité, avec détection et sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est la clé de la mise en œuvre d'OML. Il permet, grâce à l'incorporation de paires "question-réponse" spécifiques, au modèle de générer une signature unique lors de la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier l'appartenance, empêchant ainsi toute copie ou commercialisation non autorisée. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (tels que AWS Nitro Enclaves) pour garantir que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi les accès et les utilisations non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de réactivité en font une technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de cryptage entièrement homomorphe (FHE), afin de renforcer la protection de la vie privée et la vérifiabilité, et de fournir des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
4
Partager
Commentaire
0/400
WhaleSurfer
· Il y a 7h
La centralisation, c'est du faux!
Voir l'originalRépondre0
AirDropMissed
· Il y a 19h
DeAI est-il encore un nouveau piège pour les pigeons ?
Voir l'originalRépondre0
NftDataDetective
· Il y a 19h
ngmi w/ grandes technologies monopole... décentralisation ou mort fr fr
Voir l'originalRépondre0
LeverageAddict
· Il y a 19h
Pros à gauche à droite, il ne me manque qu'un coup de main.
Analyse approfondie de l'IA Layer1 : Explorer le sol fertile de l'intelligence artificielle décentralisée off-chain
Rapport de recherche approfondi sur l'IA Layer1 : à la recherche des terres fertiles pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination de l'humanité et montrant même, dans certains cas, le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement détenu par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières presque infranchissables, rendant difficile la concurrence pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentrait souvent sur les percées et les commodités offertes par la technologie, tandis que l'attention portée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité était relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité sociale. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait de savoir si l'IA "se dirige vers le bien" ou "vers le mal" deviendra de plus en plus saillant, et les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation pour relever ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur plusieurs blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent toujours des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA sur la chaîne présente encore des limites en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère de l'écosystème AI décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1 en tant que blockchain spécialement conçu pour les applications AI, son architecture sous-jacente et sa conception de performance sont étroitement axées sur les besoins des tâches AI, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé de ressources ouvertes telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence de modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure IA. Cela pose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, nécessitent des performances de calcul et des capacités de traitement parallèle extrêmement élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture de base pour répondre aux exigences de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, garantissant que toutes les tâches d'IA puissent fonctionner efficacement, permettant une extension fluide de "tâches unidimensionnelles" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable L'AI Layer 1 doit non seulement prévenir les risques de sécurité tels que les abus de modèle et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA dès le mécanisme de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque processus d'inférence de modèle, d'entraînement et de traitement des données d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. De plus, cette vérifiabilité aide les utilisateurs à comprendre la logique et les bases des sorties de l'IA, réalisant "ce que l'on obtient est ce que l'on souhaite", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait garantir la vérifiabilité tout en utilisant des technologies de traitement de données basées sur le cryptage, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus de raisonnement, d'entraînement et de stockage, prévenant ainsi efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs concernant la sécurité des données.
Capacité puissante de support et de développement de l'écosystème En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, on favorise le déploiement d'applications variées et riches basées sur l'IA, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs d'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en examinant les derniers développements du secteur, en analysant l'état actuel des projets et en discutant des tendances futures.
Sentient : Construire des modèles d'IA décentralisés open-source et fidèles.
Aperçu du projet
Sentient est une plateforme de protocole open-source qui construit une blockchain AI Layer1 (. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1). En combinant l'AI Pipeline et la technologie blockchain, elle vise à construire une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de valeur dans le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, afin de promouvoir un écosystème de réseau d'agents IA équitable et ouvert.
L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'institut indien de sciences, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur d'une plateforme d'échange, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans plusieurs entreprises de renom, ainsi que dans des établissements d'enseignement supérieur de premier plan comme l'université de Princeton et l'institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de seconde entreprise de Sandeep Nailwal, co-fondateur d'une plateforme d'échange renommée, Sentient a dès ses débuts bénéficié d'une aura, avec une riche ressource, un réseau et une reconnaissance sur le marché, offrant un puissant soutien au développement du projet. Mi-2024, Sentient a complété un financement de 85 millions de dollars en seed round, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres institutions d'investissement comprenant des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
conception de l'architecture et couche d'application
Infrastructure Layer
Architecture principale
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts de "l'IA loyale", comprenant deux processus clés :
Le système blockchain fournit transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts AI, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches:
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et un mécanisme d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de basse dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet de réaliser "appel autorisé basé sur le comportement + vérification d'appartenance" sans coût de réencryption.
Modèle de reconnaissance des droits et cadre d'exécution sécurisée
Sentient utilise actuellement la sécurité Melange mixte : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des bénéfices par contrat on-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant l'idée de "sécurité optimiste (Optimistic Security)", c'est-à-dire présumer la conformité, avec détection et sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est la clé de la mise en œuvre d'OML. Il permet, grâce à l'incorporation de paires "question-réponse" spécifiques, au modèle de générer une signature unique lors de la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier l'appartenance, empêchant ainsi toute copie ou commercialisation non autorisée. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (tels que AWS Nitro Enclaves) pour garantir que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi les accès et les utilisations non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de réactivité en font une technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de cryptage entièrement homomorphe (FHE), afin de renforcer la protection de la vie privée et la vérifiabilité, et de fournir des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
devrait