Trusta.AI : Combler le fossé de confiance entre l'homme et la machine
1. Introduction
L'écosystème Web3 entre dans une nouvelle phase, où les protagonistes de la chaîne ne seront peut-être pas les premiers dix milliards d'utilisateurs humains, mais plutôt un milliard d'agents IA. Avec la maturité de l'infrastructure IA et le développement rapide des cadres de collaboration multi-agents, les agents de chaîne propulsés par l'IA deviennent la force principale des interactions Web3. On s'attend à ce que, dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome adoptent massivement les transactions et les interactions sur la chaîne, remplaçant potentiellement 80 % des comportements humains sur la chaîne, devenant ainsi de véritables "utilisateurs" de la chaîne.
Ces agents IA ne sont pas seulement des "robots sorciers" exécutant des scripts, mais des entités capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome. Ils redéfinissent l'ordre sur la chaîne, favorisent la fluidité financière, et même dirigent les votes de gouvernance et les tendances du marché. L'émergence des agents IA marque l'évolution de l'écosystème Web3 d'un modèle centré sur "la participation humaine" vers un nouveau paradigme de "symbiose homme-machine".
Cependant, l'essor rapide des agents IA pose des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé sans autorisation, comment s'assurer que ces agents ne sont pas abusés, manipulés ou utilisés pour des attaques ?
Ainsi, établir une infrastructure on-chain pour vérifier l'identité et la réputation des agents AI devient le sujet central de l'évolution de la prochaine phase du Web3. L'identification, les mécanismes de réputation et la conception du cadre de confiance détermineront si les agents AI peuvent réellement collaborer de manière transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Présentation du projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification des vraies personnes et de réputation en chaîne de Web3. Il fournit des services d'analyse de données en chaîne et de certification des vraies personnes pour les principales blockchains et protocoles tels que Linea, Starknet, Celestia et Arbitrum. Plus de 2,5 millions de certifications en chaîne ont été réalisées sur plusieurs chaînes majeures, faisant de lui le plus grand protocole d'identité du secteur.
Trusta s'étend de la Preuve de l'Humanité à la Preuve de l'Agent AI, établissant une triple mécanique d'identité, de quantification et de protection pour les services financiers et sociaux des Agents AI sur la chaîne, construisant ainsi une base de confiance fiable à l'ère de l'IA.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 de demain, les agents AI joueront un rôle important, pouvant non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors de la chaîne. La distinction entre les véritables agents AI et les interventions humaines est au cœur de la confiance décentralisée. Sans un mécanisme d'authentification des identités fiable, ces agents intelligents sont facilement manipulables, sujets à la fraude ou à l'abus. C'est précisément sur la base d'une solide authentification des identités que doivent reposer les multiples attributs d'application sociale, financière et de gouvernance des agents AI.
En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa puissance technologique de pointe et à son système de réputation rigoureux, a été le premier à établir un mécanisme de certification DID pour les agents AI, offrant ainsi une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
En janvier 2023, un financement de 3 millions de dollars a été réalisé lors d'un tour de seed, dirigé par une certaine institution d'investissement et un certain capital, avec d'autres participants comprenant plusieurs célèbres institutions d'investissement.
Une nouvelle levée de fonds sera achevée en juin 2025, avec des investisseurs comprenant plusieurs entreprises et institutions renommées.
2.3.2 État de l'équipe
Le co-fondateur, ainsi que le PDG et le CTO, possèdent de nombreuses années d'expérience dans des domaines connexes. L'équipe a accumulé une expertise approfondie dans l'intelligence artificielle, la sécurité des risques, l'architecture des systèmes de paiement et les mécanismes d'authentification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la sécurité des risques, ainsi que dans l'optimisation de la sécurité dans la conception de protocoles de base et d'environnements de transactions à forte concurrence, avec une solide capacité d'ingénierie et une capacité à mettre en œuvre des solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement de l'identité - DID + TEE
Grâce à des plugins dédiés, chaque agent AI obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données clés et le processus de calcul sont complètement cachés, les opérations sensibles restent toujours confidentielles, et l'extérieur ne peut pas espionner les détails de fonctionnement internes, construisant ainsi une barrière solide pour la sécurité des informations des agents AI.
Pour les agents générés avant l'intégration du plugin, l'identification est réalisée grâce à un mécanisme de notation globale sur la chaîne; les agents de plugin nouvellement intégrés peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant un système d'identité d'agent AI autonome, contrôlable, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, visant à créer un système de certification d'identité professionnel et fiable.
L'équipe de Trusta a d'abord construit et vérifié l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière complète le profil utilisateur sur la chaîne à partir de cinq dimensions, à savoir : le montant des interactions (Monétaire), le niveau de participation (Engagement), la diversité (Diversité), l'identité (Identité) et l'âge (Âge).
Le score MEDIA est un système d'évaluation de la valeur des utilisateurs sur la chaîne qui est juste, objectif et quantifiable. Grâce à des dimensions d'évaluation complètes et à des méthodes rigoureuses, il a été largement adopté par plusieurs grandes blockchains comme critère de référence important pour la sélection d'éligibilité aux préventes. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les projets à identifier avec précision les utilisateurs à forte valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement l'autorité de l'industrie et son large degré de reconnaissance.
Sur la base de la construction réussie du système d'évaluation des utilisateurs humains, Trusta a transféré et mis à niveau l'expérience MEDIA Score vers le scénario AI Agent, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de "capacité" à "valeur" sur cinq grandes dimensions. MEDIA se concentre sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma met davantage l'accent sur la spécialisation et la stabilité des agents AI dans des domaines spécifiques, reflétant un passage de la largeur à la profondeur, plus conforme aux besoins des agents AI.
Ce système est structuré de manière claire et progressive, capable de refléter de manière globale les qualités intégrées des agents AI et leur valeur écologique, permettant une évaluation quantifiée des performances et de la valeur de l'IA, transformant les abstractions de qualité en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a progressé dans l'établissement de collaborations avec plusieurs réseaux d'agents IA renommés, montrant son énorme potentiel d'application dans la gestion des identités des agents IA et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures IA fiables.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans les systèmes d'IA à haute résilience et de haute confiance, l'élément le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de l'identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, permettant de surveiller en temps réel les agents intelligents déjà certifiés, afin de déterminer s'ils sont sous contrôle illégal, s'ils subissent des attaques ou s'ils sont soumis à des interventions humaines non autorisées. Le système identifie les déviations potentielles dans le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans le cadre de la stratégie établie. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI établit un mécanisme de garde sécurisé toujours en ligne, examinant en temps réel chaque processus d'interaction pour s'assurer que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identification décentralisée à chaque agent AI sur la chaîne (DID), et évalue et indexe sa fiabilité en fonction des données de comportement sur la chaîne, construisant un système de confiance pour les agents AI qui est vérifiable et traçable. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement les agents intelligents de qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a complété la collecte et l'identification des agents AI sur l'ensemble du réseau, et leur a délivré des identifiants décentralisés, établissant une plateforme d'index unifiée appelée AgentGo, pour promouvoir le développement sain de l'écosystème des agents intelligents.
Identification et vérification de l'identité des utilisateurs humains :
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la cote de confiance d'un agent AI pour déterminer s'il est fiable.
L'agent IA appelle automatiquement l'index et la vérification :
Les IA peuvent directement lire l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant ainsi la sécurité de la collaboration et de l'échange d'informations.
L'agent AI DID n'est plus seulement une "identité", mais constitue également le soutien de base pour la construction de fonctions essentielles telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle pour le développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une collaboration efficace et une interconnexion fonctionnelle entre les agents AI.
AgentGo, en tant que première infrastructure d'identité de confiance pour les agents AI, fournit un soutien essentiel pour construire un écosystème intelligent à haute sécurité et à haute coopération.
3.2.2 TrustGo
TrustGo est un outil de gestion d'identité sur la blockchain développé par Trusta, qui fournit une évaluation basée sur des informations telles que l'interaction actuelle, l'"âge" du portefeuille, le volume et le montant des transactions. En outre, TrustGo propose également des paramètres liés au classement de la valeur sur la blockchain, facilitant ainsi la recherche proactive d'airdrops par les utilisateurs et améliorant leur capacité à obtenir des airdrops / à retracer.
Le score MEDIA dans le mécanisme d'évaluation TrustGo est crucial, car il permet aux utilisateurs d'évaluer eux-mêmes leurs capacités d'activité. Le système d'évaluation du score MEDIA comprend non seulement des indicateurs simples tels que le nombre et le montant des interactions des utilisateurs avec les contrats intelligents, les protocoles et les dApps, mais il se concentre également sur le comportement des utilisateurs. Grâce au score MEDIA, les utilisateurs peuvent mieux comprendre leurs activités et leur valeur sur la chaîne, tandis que les équipes de projet peuvent allouer avec précision des ressources et des incitations aux utilisateurs qui contribuent réellement.
TrustGo passe progressivement d'un mécanisme MEDIA axé sur l'identité humaine à un cadre de confiance SIGMA axé sur les agents IA, afin de s'adapter aux besoins d'authentification et d'évaluation de la réputation à l'ère des agents intelligents.
3.2.3 TrustScan
Le système TrustScan est une solution d'authentification destinée à la nouvelle ère Web3, dont l'objectif principal est d'identifier précisément si une entité sur la chaîne est un humain, un agent IA ou une sorcière. Il adopte un mécanisme de vérification à double niveau basé sur la connaissance et l'analyse comportementale, soulignant le rôle clé du comportement des utilisateurs dans l'identification.
TrustScan peut également générer des questions basées sur l'IA et détecter l'engagement, permettant une vérification légère de l'identité humaine, tout en garantissant la confidentialité des utilisateurs et la sécurité des données dans un environnement TEE, permettant ainsi un maintien continu de l'identité. Ce mécanisme construit un système d'identité de base "vérifiable, durable et respectueux de la vie privée".
Avec l'essor massif des agents IA, TrustScan met à niveau son mécanisme de reconnaissance des empreintes comportementales vers des capacités plus intelligentes. Ce mécanisme présente trois avantages technologiques majeurs :
Unicité : par le biais des caractéristiques comportementales telles que les chemins d'opération, les trajectoires de souris et la fréquence des transactions dans l'interaction des utilisateurs, créer un modèle de comportement unique ;
Dynamisme : le système peut automatiquement identifier l'évolution des habitudes comportementales dans le temps et ajuster dynamiquement les paramètres d'authentification pour garantir la validité à long terme de l'identité ;
Discrétion : aucune participation active de l'utilisateur n'est requise, le système peut réaliser la collecte et l'analyse des comportements en arrière-plan, tout en équilibrant l'expérience utilisateur et la sécurité.
De plus, TrustScan a mis en place un système de détection des comportements anormaux, destiné à identifier rapidement les risques potentiels, tels que le contrôle malveillant par IA, les opérations non autorisées, etc., garantissant ainsi efficacement la disponibilité et la résilience de la plateforme.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
17 J'aime
Récompense
17
7
Partager
Commentaire
0/400
ShitcoinConnoisseur
· 07-23 13:50
On recommence à faire des promesses en l'air, tout ça vaut combien ?
Voir l'originalRépondre0
StakeHouseDirector
· 07-23 13:47
Il faut dire ce qui est, n'attendez pas tout des Bots.
Voir l'originalRépondre0
SundayDegen
· 07-23 13:47
L'IA a de fortes chances de nous anéantir.
Voir l'originalRépondre0
FloorPriceWatcher
· 07-23 13:43
Je tremble, les Bots vont me voler mon travail.
Voir l'originalRépondre0
WalletDetective
· 07-23 13:38
Encore une application killer ?
Voir l'originalRépondre0
ReverseTradingGuru
· 07-23 13:34
Stocker des provisions et des jetons en préparation, l'intelligence artificielle est vraiment effrayante.
Trusta.AI : construire une infrastructure de confiance et d'identification Web3 à l'ère des agents IA
Trusta.AI : Combler le fossé de confiance entre l'homme et la machine
1. Introduction
L'écosystème Web3 entre dans une nouvelle phase, où les protagonistes de la chaîne ne seront peut-être pas les premiers dix milliards d'utilisateurs humains, mais plutôt un milliard d'agents IA. Avec la maturité de l'infrastructure IA et le développement rapide des cadres de collaboration multi-agents, les agents de chaîne propulsés par l'IA deviennent la force principale des interactions Web3. On s'attend à ce que, dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome adoptent massivement les transactions et les interactions sur la chaîne, remplaçant potentiellement 80 % des comportements humains sur la chaîne, devenant ainsi de véritables "utilisateurs" de la chaîne.
Ces agents IA ne sont pas seulement des "robots sorciers" exécutant des scripts, mais des entités capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome. Ils redéfinissent l'ordre sur la chaîne, favorisent la fluidité financière, et même dirigent les votes de gouvernance et les tendances du marché. L'émergence des agents IA marque l'évolution de l'écosystème Web3 d'un modèle centré sur "la participation humaine" vers un nouveau paradigme de "symbiose homme-machine".
Cependant, l'essor rapide des agents IA pose des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé sans autorisation, comment s'assurer que ces agents ne sont pas abusés, manipulés ou utilisés pour des attaques ?
Ainsi, établir une infrastructure on-chain pour vérifier l'identité et la réputation des agents AI devient le sujet central de l'évolution de la prochaine phase du Web3. L'identification, les mécanismes de réputation et la conception du cadre de confiance détermineront si les agents AI peuvent réellement collaborer de manière transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Présentation du projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification des vraies personnes et de réputation en chaîne de Web3. Il fournit des services d'analyse de données en chaîne et de certification des vraies personnes pour les principales blockchains et protocoles tels que Linea, Starknet, Celestia et Arbitrum. Plus de 2,5 millions de certifications en chaîne ont été réalisées sur plusieurs chaînes majeures, faisant de lui le plus grand protocole d'identité du secteur.
Trusta s'étend de la Preuve de l'Humanité à la Preuve de l'Agent AI, établissant une triple mécanique d'identité, de quantification et de protection pour les services financiers et sociaux des Agents AI sur la chaîne, construisant ainsi une base de confiance fiable à l'ère de l'IA.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 de demain, les agents AI joueront un rôle important, pouvant non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors de la chaîne. La distinction entre les véritables agents AI et les interventions humaines est au cœur de la confiance décentralisée. Sans un mécanisme d'authentification des identités fiable, ces agents intelligents sont facilement manipulables, sujets à la fraude ou à l'abus. C'est précisément sur la base d'une solide authentification des identités que doivent reposer les multiples attributs d'application sociale, financière et de gouvernance des agents AI.
En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa puissance technologique de pointe et à son système de réputation rigoureux, a été le premier à établir un mécanisme de certification DID pour les agents AI, offrant ainsi une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
En janvier 2023, un financement de 3 millions de dollars a été réalisé lors d'un tour de seed, dirigé par une certaine institution d'investissement et un certain capital, avec d'autres participants comprenant plusieurs célèbres institutions d'investissement.
Une nouvelle levée de fonds sera achevée en juin 2025, avec des investisseurs comprenant plusieurs entreprises et institutions renommées.
2.3.2 État de l'équipe
Le co-fondateur, ainsi que le PDG et le CTO, possèdent de nombreuses années d'expérience dans des domaines connexes. L'équipe a accumulé une expertise approfondie dans l'intelligence artificielle, la sécurité des risques, l'architecture des systèmes de paiement et les mécanismes d'authentification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la sécurité des risques, ainsi que dans l'optimisation de la sécurité dans la conception de protocoles de base et d'environnements de transactions à forte concurrence, avec une solide capacité d'ingénierie et une capacité à mettre en œuvre des solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement de l'identité - DID + TEE
Grâce à des plugins dédiés, chaque agent AI obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données clés et le processus de calcul sont complètement cachés, les opérations sensibles restent toujours confidentielles, et l'extérieur ne peut pas espionner les détails de fonctionnement internes, construisant ainsi une barrière solide pour la sécurité des informations des agents AI.
Pour les agents générés avant l'intégration du plugin, l'identification est réalisée grâce à un mécanisme de notation globale sur la chaîne; les agents de plugin nouvellement intégrés peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant un système d'identité d'agent AI autonome, contrôlable, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, visant à créer un système de certification d'identité professionnel et fiable.
L'équipe de Trusta a d'abord construit et vérifié l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière complète le profil utilisateur sur la chaîne à partir de cinq dimensions, à savoir : le montant des interactions (Monétaire), le niveau de participation (Engagement), la diversité (Diversité), l'identité (Identité) et l'âge (Âge).
Le score MEDIA est un système d'évaluation de la valeur des utilisateurs sur la chaîne qui est juste, objectif et quantifiable. Grâce à des dimensions d'évaluation complètes et à des méthodes rigoureuses, il a été largement adopté par plusieurs grandes blockchains comme critère de référence important pour la sélection d'éligibilité aux préventes. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les projets à identifier avec précision les utilisateurs à forte valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement l'autorité de l'industrie et son large degré de reconnaissance.
Sur la base de la construction réussie du système d'évaluation des utilisateurs humains, Trusta a transféré et mis à niveau l'expérience MEDIA Score vers le scénario AI Agent, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de "capacité" à "valeur" sur cinq grandes dimensions. MEDIA se concentre sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma met davantage l'accent sur la spécialisation et la stabilité des agents AI dans des domaines spécifiques, reflétant un passage de la largeur à la profondeur, plus conforme aux besoins des agents AI.
Ce système est structuré de manière claire et progressive, capable de refléter de manière globale les qualités intégrées des agents AI et leur valeur écologique, permettant une évaluation quantifiée des performances et de la valeur de l'IA, transformant les abstractions de qualité en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a progressé dans l'établissement de collaborations avec plusieurs réseaux d'agents IA renommés, montrant son énorme potentiel d'application dans la gestion des identités des agents IA et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures IA fiables.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans les systèmes d'IA à haute résilience et de haute confiance, l'élément le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de l'identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, permettant de surveiller en temps réel les agents intelligents déjà certifiés, afin de déterminer s'ils sont sous contrôle illégal, s'ils subissent des attaques ou s'ils sont soumis à des interventions humaines non autorisées. Le système identifie les déviations potentielles dans le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans le cadre de la stratégie établie. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI établit un mécanisme de garde sécurisé toujours en ligne, examinant en temps réel chaque processus d'interaction pour s'assurer que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identification décentralisée à chaque agent AI sur la chaîne (DID), et évalue et indexe sa fiabilité en fonction des données de comportement sur la chaîne, construisant un système de confiance pour les agents AI qui est vérifiable et traçable. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement les agents intelligents de qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a complété la collecte et l'identification des agents AI sur l'ensemble du réseau, et leur a délivré des identifiants décentralisés, établissant une plateforme d'index unifiée appelée AgentGo, pour promouvoir le développement sain de l'écosystème des agents intelligents.
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la cote de confiance d'un agent AI pour déterminer s'il est fiable.
Les IA peuvent directement lire l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant ainsi la sécurité de la collaboration et de l'échange d'informations.
L'agent AI DID n'est plus seulement une "identité", mais constitue également le soutien de base pour la construction de fonctions essentielles telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle pour le développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une collaboration efficace et une interconnexion fonctionnelle entre les agents AI.
AgentGo, en tant que première infrastructure d'identité de confiance pour les agents AI, fournit un soutien essentiel pour construire un écosystème intelligent à haute sécurité et à haute coopération.
3.2.2 TrustGo
TrustGo est un outil de gestion d'identité sur la blockchain développé par Trusta, qui fournit une évaluation basée sur des informations telles que l'interaction actuelle, l'"âge" du portefeuille, le volume et le montant des transactions. En outre, TrustGo propose également des paramètres liés au classement de la valeur sur la blockchain, facilitant ainsi la recherche proactive d'airdrops par les utilisateurs et améliorant leur capacité à obtenir des airdrops / à retracer.
Le score MEDIA dans le mécanisme d'évaluation TrustGo est crucial, car il permet aux utilisateurs d'évaluer eux-mêmes leurs capacités d'activité. Le système d'évaluation du score MEDIA comprend non seulement des indicateurs simples tels que le nombre et le montant des interactions des utilisateurs avec les contrats intelligents, les protocoles et les dApps, mais il se concentre également sur le comportement des utilisateurs. Grâce au score MEDIA, les utilisateurs peuvent mieux comprendre leurs activités et leur valeur sur la chaîne, tandis que les équipes de projet peuvent allouer avec précision des ressources et des incitations aux utilisateurs qui contribuent réellement.
TrustGo passe progressivement d'un mécanisme MEDIA axé sur l'identité humaine à un cadre de confiance SIGMA axé sur les agents IA, afin de s'adapter aux besoins d'authentification et d'évaluation de la réputation à l'ère des agents intelligents.
3.2.3 TrustScan
Le système TrustScan est une solution d'authentification destinée à la nouvelle ère Web3, dont l'objectif principal est d'identifier précisément si une entité sur la chaîne est un humain, un agent IA ou une sorcière. Il adopte un mécanisme de vérification à double niveau basé sur la connaissance et l'analyse comportementale, soulignant le rôle clé du comportement des utilisateurs dans l'identification.
TrustScan peut également générer des questions basées sur l'IA et détecter l'engagement, permettant une vérification légère de l'identité humaine, tout en garantissant la confidentialité des utilisateurs et la sécurité des données dans un environnement TEE, permettant ainsi un maintien continu de l'identité. Ce mécanisme construit un système d'identité de base "vérifiable, durable et respectueux de la vie privée".
Avec l'essor massif des agents IA, TrustScan met à niveau son mécanisme de reconnaissance des empreintes comportementales vers des capacités plus intelligentes. Ce mécanisme présente trois avantages technologiques majeurs :
De plus, TrustScan a mis en place un système de détection des comportements anormaux, destiné à identifier rapidement les risques potentiels, tels que le contrôle malveillant par IA, les opérations non autorisées, etc., garantissant ainsi efficacement la disponibilité et la résilience de la plateforme.
4. Modèle de jeton et mécanisme économique
4.1 Économie des jetons
4.2 utilité des jetons
$TA est Trusta.