OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable.
I. Introduction | La transition des couches de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, analogues au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), indispensables les uns aux autres. Tout comme le chemin d'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de Crypto AI a également traversé des phases similaires. Début 2024, le marché était dominé par des projets de GPU décentralisés ( certaines plateformes, mettant en avant une logique de croissance extensive axée sur "la puissance de calcul". Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les niveaux de modèle et de données, marquant la transition de Crypto AI d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et ayant une valeur d'application.
) Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage de grande taille (LLM) traditionnels reposent fortement sur des ensembles de données massifs et des architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'un entraînement peut atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme d'ajustement léger de modèles de base réutilisables, est généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, combinant un petit nombre de données professionnelles de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts d'entraînement et les barrières techniques.
Il convient de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins de routage dynamique, des modules LoRA à chaud et RAG (génération améliorée par la recherche). Cette architecture préserve la large capacité de couverture de LLM tout en renforçant la performance professionnelle grâce à des modules d'affinage, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Barrières technologiques trop élevées : L'échelle de données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle de fondation sont extrêmement vastes. Actuellement, seules des géants technologiques comme certains États-Unis (certaines entreprises, etc.) et la Chine (certaines entreprises, etc.) disposent des capacités correspondantes.
Limites de l'écosystème open source : Bien que des modèles de base grand public comme LLaMA et Mixtral soient désormais open source, la véritable clé de la percée des modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base est limité.
Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent toujours étendre leur valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions principales :
Couche de vérification de confiance : enregistrement sur la chaîne des chemins de génération de modèles, des contributions de données et des utilisations, renforçant la traçabilité et la résistance à la falsification des sorties d'IA.
Mécanisme d'incitation : Grâce au token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle positif de formation et de service des modèles.
Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points de chute viables des projets de type Crypto AI se concentrent principalement sur l'allégement et le réglage fin des SLM de petite taille, l'intégration et la vérification des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, formant ainsi une valeur différenciée pour la « couche d'interface » de l'IA.
La chaîne AI basée sur des données et des modèles sur blockchain peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. En outre, grâce au mécanisme de contrat intelligent, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
![OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les données et les mécanismes d'incitation des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de « fourniture de données » à « déploiement de modèle » en passant par « appel de partage de bénéfices », ses modules principaux comprennent :
Modèle d'usine : pas besoin de programmation, vous pouvez utiliser LoRA pour le réglage fin, l'entraînement et le déploiement de modèles personnalisés basés sur LLM open source ;
OpenLoRA : prend en charge la coexistence de milliers de modèles, charge dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : mesure de contribution et répartition des récompenses réalisée par l'enregistrement des appels sur la chaîne ;
Datanets : un réseau de données structuré orienté vers des scénarios verticaux, construit et vérifié par la collaboration communautaire ;
Plateforme de proposition de modèle (Model Proposal Platform) : un marché de modèles en chaîne, modulable, appelable et payant.
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et modélisable, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Construit sur OP Stack : Basé sur la technologie Optimism, supporte un haut débit et une exécution à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
EigenDA offre un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.
Comparé à des chaînes AI générales comme NEAR, qui se concentrent davantage sur les couches inférieures et prônent la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI dédiées à l'incitation des données et des modèles, s'efforçant d'atteindre un cycle de valeur traçable, combinable et durable pour le développement et l'appel de modèles sur la chaîne. C'est une infrastructure d'incitation de modèles dans le monde Web3, combinant certains services de gestion de modèles de type plateforme, certains services de facturation d'utilisation de type plateforme et certaines interfaces combinables sur la chaîne de type plateforme, facilitant le chemin vers la réalisation de « modèle en tant qu'actif ».
![OpenLedger Depth Research Report : Construire une économie d'agents intelligents, basée sur OP Stack + EigenDA, axée sur les données et modélisable])https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
Trois, les composants clés et l'architecture technique d'OpenLedger
) 3.1 Modèle d'usine, usine de modèle sans code
ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory offre une interface graphique entièrement opérationnelle, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner les modèles en utilisant des ensembles de données autorisés et vérifiés sur OpenLedger. Cela permet d'implémenter un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés incluent :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur l'examine et l'approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
Sélection et configuration du modèle : Prend en charge les LLM grand public (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
Évaluation et déploiement de modèles : outils d'évaluation intégrés, support pour l'exportation de déploiement ou l'appel partagé d'écosystème.
Interface de vérification interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
Génération de traçabilité RAG : Réponses avec références de provenance, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les permissions des données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et générant des revenus durables.
![OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
Le tableau ci-dessous présente les capacités des grands modèles de langage actuellement supportés par ModelFactory :
LLaMA série : écosystème le plus large, communauté active, performances générales élevées, c'est l'un des modèles de base open source les plus courants actuellement.
Mistral : architecture efficace, performances d'inférence excellentes, adaptée aux déploiements flexibles et aux ressources limitées.
Qwen : produit par une certaine entreprise, excellent dans les tâches en chinois, avec de solides capacités globales, idéal pour les développeurs nationaux.
ChatGLM : l'effet de conversation en chinois est remarquable, adapté aux services clients de niche et aux scénarios de localisation.
Deepseek : performant en génération de code et raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par une certaine entreprise, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Anciennement une référence de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : Support multilingue fort, mais performance d'inférence faible, adapté à la recherche sur la couverture linguistique.
GPT-2 : modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, son utilisation dans des déploiements réels n'est pas recommandée.
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur l'utile » basée sur les contraintes réalistes de déploiement sur la chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels qu'un faible seuil d'entrée, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison d'actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.
![OpenLedger Depth Research Report : Construire une économie d'agents intelligente, pilotée par les données et modélisée de manière combinable avec OP Stack + EigenDA])https://img-cdn.gateio.im/webp-social/moments-909dc3f796ad6aa44a1c97a51ade4193.webp(
) 3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle fine-tuné
LoRA (Low-Rank Adaptation) est une méthode efficace de réglage fin des paramètres, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage fin (fine-tuning) est nécessaire. La stratégie clé de LoRA est : "geler les paramètres du grand modèle d'origine, et n'entraîner que les nouvelles matrices de paramètres insérées." Sa grande efficacité en matière de paramètres, son entraînement rapide et sa flexibilité de déploiement en font la méthode de réglage fin la plus adaptée au déploiement et à l'appel combiné des modèles Web3.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécifiquement pour le déploiement mult modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants du déploiement de modèles AI, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"AI payante" (Payable AI).
OpenLoRA architecture core components, basé sur un design modulaire, couvrent le stockage des modèles, l'exécution des inférences, le routage des requêtes et d'autres étapes clés, réalisant une capacité de déploiement et d'appel multi-modèles efficace et à faible coût :
Module de stockage LoRA Adapter ###LoRA Adapters Storage( : l'adaptateur LoRA ajusté est hébergé sur OpenLedger, permettant un chargement à la demande et évitant de précharger tous les modèles.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
6 J'aime
Récompense
6
7
Partager
Commentaire
0/400
MindsetExpander
· Il y a 14h
Une récolte de pigeons de jetons, c'est tout.
Voir l'originalRépondre0
MEVSandwich
· Il y a 14h
Fais-moi un résumé en chinois, s'il te plaît.
Voir l'originalRépondre0
MaticHoleFiller
· Il y a 14h
Je parie sur l'IA cette fois.
Voir l'originalRépondre0
OnchainSniper
· Il y a 14h
Encore une journée de Puissance de calcul.
Voir l'originalRépondre0
RugpullAlertOfficer
· Il y a 14h
Accélérez jusqu'à ce que l'agent fasse un Rug Pull
Voir l'originalRépondre0
BlockchainTherapist
· Il y a 14h
Ça a l'air beau, essayons un peu.
Voir l'originalRépondre0
MidnightSeller
· Il y a 14h
Est-il encore possible de faire un projet AI sans bouteilles de sauce cette année?
OpenLedger a lancé une chaîne d'incitation de modèle AI basée sur OP Stack+EigenDA pour construire une économie d'agents intelligents combinables.
OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable.
I. Introduction | La transition des couches de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, analogues au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), indispensables les uns aux autres. Tout comme le chemin d'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de Crypto AI a également traversé des phases similaires. Début 2024, le marché était dominé par des projets de GPU décentralisés ( certaines plateformes, mettant en avant une logique de croissance extensive axée sur "la puissance de calcul". Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les niveaux de modèle et de données, marquant la transition de Crypto AI d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et ayant une valeur d'application.
) Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage de grande taille (LLM) traditionnels reposent fortement sur des ensembles de données massifs et des architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'un entraînement peut atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme d'ajustement léger de modèles de base réutilisables, est généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, combinant un petit nombre de données professionnelles de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts d'entraînement et les barrières techniques.
Il convient de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins de routage dynamique, des modules LoRA à chaud et RAG (génération améliorée par la recherche). Cette architecture préserve la large capacité de couverture de LLM tout en renforçant la performance professionnelle grâce à des modules d'affinage, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent toujours étendre leur valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions principales :
Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points de chute viables des projets de type Crypto AI se concentrent principalement sur l'allégement et le réglage fin des SLM de petite taille, l'intégration et la vérification des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, formant ainsi une valeur différenciée pour la « couche d'interface » de l'IA.
La chaîne AI basée sur des données et des modèles sur blockchain peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. En outre, grâce au mécanisme de contrat intelligent, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
![OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les données et les mécanismes d'incitation des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de « fourniture de données » à « déploiement de modèle » en passant par « appel de partage de bénéfices », ses modules principaux comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et modélisable, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Comparé à des chaînes AI générales comme NEAR, qui se concentrent davantage sur les couches inférieures et prônent la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI dédiées à l'incitation des données et des modèles, s'efforçant d'atteindre un cycle de valeur traçable, combinable et durable pour le développement et l'appel de modèles sur la chaîne. C'est une infrastructure d'incitation de modèles dans le monde Web3, combinant certains services de gestion de modèles de type plateforme, certains services de facturation d'utilisation de type plateforme et certaines interfaces combinables sur la chaîne de type plateforme, facilitant le chemin vers la réalisation de « modèle en tant qu'actif ».
![OpenLedger Depth Research Report : Construire une économie d'agents intelligents, basée sur OP Stack + EigenDA, axée sur les données et modélisable])https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
Trois, les composants clés et l'architecture technique d'OpenLedger
) 3.1 Modèle d'usine, usine de modèle sans code
ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory offre une interface graphique entièrement opérationnelle, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner les modèles en utilisant des ensembles de données autorisés et vérifiés sur OpenLedger. Cela permet d'implémenter un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés incluent :
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les permissions des données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et générant des revenus durables.
![OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
Le tableau ci-dessous présente les capacités des grands modèles de langage actuellement supportés par ModelFactory :
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur l'utile » basée sur les contraintes réalistes de déploiement sur la chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels qu'un faible seuil d'entrée, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :
![OpenLedger Depth Research Report : Construire une économie d'agents intelligente, pilotée par les données et modélisée de manière combinable avec OP Stack + EigenDA])https://img-cdn.gateio.im/webp-social/moments-909dc3f796ad6aa44a1c97a51ade4193.webp(
) 3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle fine-tuné
LoRA (Low-Rank Adaptation) est une méthode efficace de réglage fin des paramètres, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage fin (fine-tuning) est nécessaire. La stratégie clé de LoRA est : "geler les paramètres du grand modèle d'origine, et n'entraîner que les nouvelles matrices de paramètres insérées." Sa grande efficacité en matière de paramètres, son entraînement rapide et sa flexibilité de déploiement en font la méthode de réglage fin la plus adaptée au déploiement et à l'appel combiné des modèles Web3.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécifiquement pour le déploiement mult modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants du déploiement de modèles AI, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"AI payante" (Payable AI).
OpenLoRA architecture core components, basé sur un design modulaire, couvrent le stockage des modèles, l'exécution des inférences, le routage des requêtes et d'autres étapes clés, réalisant une capacité de déploiement et d'appel multi-modèles efficace et à faible coût :