Babbitt | Metaverse Daily Must-Read : Au milieu de la nuit, le fondateur de Nvidia, Huang Renxun, a apporté un matériel plus vigoureux à "l'IA générative populaire", affirmant que tout le monde devrait pouvoir participer à l'IA générative

Résumé : Selon Geek Park, le matin du 8 août, heure locale aux États-Unis, le fondateur et PDG de Nvidia, Jensen Huang, a exposé la super puce GH200 Grace Hopper pour l'IA générative lors de la conférence mondiale sur l'infographie SIGGRAPH2023. mises à niveau. Dans le même temps, Huang Renxun a également annoncé que Nvidia avait coopéré avec la communauté open source d'IA Hugging Face pour fournir des capacités de supercalcul IA génératives à des millions de développeurs afin de les aider à créer de grands modèles de langage (LLM) et des applications d'IA.

Source de l'image : générée par l'IA illimitée

Infos brûlantes :

La plateforme de collecte numérique Jingtan d'Ant Group réduira le temps de transfert de 90 jours à 24 heures

Selon un rapport du Beijing Youth Daily, dans l'après-midi du 9 août, la plate-forme de collecte numérique Jingtan du groupe Ant a ajusté le temps de transfert des 90 jours d'origine à 24 heures. Cela signifie que Whale Explorer a franchi une étape importante dans l'exploration de la circulation des collections numériques. Il s'agit d'un autre changement majeur dans le temps de transfert de cadeaux après que l'application Whale Explorer ait changé le moment du premier transfert de cadeaux de 180 jours à 90 jours et le moment du deuxième transfert de cadeaux de 720 jours à 90 jours en février de cette année. Les collectionneurs de Whale Explorer ont déclaré que cette modification arrivait à point nommé et dépassait les attentes, ce qui équivaut à "T+1".

Le responsable de l'équipe de technologie numérique du groupe Ant a déclaré que pour mieux répondre aux besoins des utilisateurs en matière de partage et de don, et pour diffuser la culture de l'art numérique original, WhaleTalk a apporté des ajustements ordonnés au délai de transfert des collections numériques. en référence à la situation générale actuelle de l'industrie.

Les applications telles que la recherche scientifique d'entreprise et la conduite autonome ne seront pas affectées par la mise en œuvre des "Mesures provisoires pour la gestion des services d'intelligence artificielle générative"

Selon un rapport de Financial Associated Press du 9 août, Luo Fengying, directeur adjoint du Bureau de coordination de la sécurité du réseau de l'Administration centrale du cyberespace, a déclaré aujourd'hui lors de la 11e Conférence sur la sécurité Internet de l'ISC2023 que le "Service d'intelligence artificielle générative" qui être officiellement mis en œuvre le 15 août "Mesures provisoires pour la gestion", la portée de sa réglementation est limitée à l'intelligence artificielle générative, qui est le grand modèle de langage familier, et d'autres applications d'intelligence artificielle telles que la conduite autonome ne seront pas affectées. De plus, les mesures provisoires ne réglementent que la situation de la prestation de services au public, et les entreprises, les instituts de recherche scientifique, les universités, etc. mènent des recherches scientifiques et s'attaquent à des problèmes clés, qui ne sont pas inclus dans la supervision. Au cours du processus de rédaction des mesures, la promotion du développement et de l'application de nouvelles technologies telles que l'intelligence artificielle a toujours été considérée comme un point de départ et un point final importants du travail, dans l'espoir de soutenir et de promouvoir le développement de l'industrie de l'intelligence artificielle. . Zhou Hongyi, le fondateur de 360 Group, a déclaré plus tard qu'à moins qu'une application avec un attribut médiatique ou un attribut de mobilisation sociale similaire ne doive passer une inspection de sécurité, s'il s'agit d'une application TOG ou TOB, c'est-à-dire une application verticale et professionnelle pour le gouvernement ou entreprise, il n'est pas nécessaire.

Miaoya Camera a étendu de toute urgence sa capacité sur Alibaba Cloud pour faire face à l'augmentation de la demande de puissance de calcul des centaines de fois

Selon le rapport de 36 Krypton du 9 août, l'application AI "Miaoya Camera" est récemment devenue populaire et a attiré l'attention d'un grand nombre d'utilisateurs. Selon le responsable concerné, "Miaoya Camera" a subi une expansion d'urgence sur Alibaba Cloud pour faire face à l'augmentation de la demande de puissance de calcul des centaines de fois.

Bureau central d'information sur le réseau Luo Fengying : la conversion de données massives en données pouvant être utilisées pour la formation de grands modèles est au centre des travaux

Selon un rapport du "Kechuangban Daily" du 9 août, lors de la 11e Conférence sur la sécurité Internet de l'ISC 2023, Luo Fengying, directeur adjoint du Bureau de coordination de la sécurité du réseau de l'Administration centrale du cyberespace, a déclaré dans son discours que nous devons être bons à convertir les ressources de données en avantage de données. Un goulot d'étranglement majeur dans le développement de l'intelligence artificielle générative est le problème des ensembles de données.Par conséquent, la conversion de données massives en données pouvant être utilisées pour la formation de grands modèles est au centre des travaux. Cela nous rappelle également que pour transformer véritablement les ressources de données en force motrice du développement de l'économie numérique, cela dépend non seulement de la taille des données stockées dans la surface totale, mais aussi de la quantité de données pouvant être fournies et partagé avec les entreprises, les institutions et les particuliers ; De plus, il est nécessaire de construire une écologie bénigne pour l'intégration et le développement de l'industrie des technologies d'éducation à la sécurité des réseaux.

Stability AI lance StableCode, un grand modèle de langage pour l'écriture de code

Selon les nouvelles d'IT House le 9 août, Stability AI a commencé à s'impliquer dans le domaine de la génération de code et a publié aujourd'hui son nouveau modèle de langage ouvert à grande échelle (LLM) StableCode, qui est conçu pour aider les utilisateurs à générer du code de langage de programmation et est basé sur le réseau neuronal du transformateur.

StableCode proposera trois niveaux différents : un modèle de base à usage général, un modèle d'instructions et un modèle de fenêtre contextuelle longue capable de prendre en charge jusqu'à 16 000 jetons. La version longue fenêtre contextuelle de StableCode a une fenêtre contextuelle de 16 000 jetons, ce qui, selon Stability AI, est plus grand que tout autre modèle. La fenêtre contextuelle plus longue permet des conseils de génération de code plus spécialisés et sophistiqués, et signifie également que les utilisateurs peuvent afficher une taille moyenne codebase avec plusieurs fichiers pour aider à comprendre et à générer un nouveau code. StableCode en est encore à ses débuts et l'objectif officiel est de voir comment les développeurs accepteront et utiliseront le modèle.

360 publiera le mois prochain une grande base de modèles au niveau de l'entreprise pour l'amélioration des connaissances

Selon le rapport "Kechuangban Daily" du 9 août, 360 lancera KM Sphere, une base de modèles à grande échelle au niveau de l'entreprise pour l'amélioration des connaissances, le mois prochain, fournissant plus de 100 robots de suivi des connaissances prêts à l'emploi et des interfaces ouvertes pour usage externe Collecte et extraction en temps réel de données à partir d'Internet, de bases de données d'entreprise internes, de nuages de documents, de systèmes d'application et d'appareils. En même temps, il fournit des modèles d'intégration vectorisés entraînés par de grands modèles, ainsi que des services de stockage de vecteurs, avec des dizaines de milliards de capacités de récupération de vecteurs.

Tsinghua Facial Intelligence a lancé ToolLLM pour améliorer la capacité d'utiliser de grands outils de modèle

Selon un rapport du Webmaster's Home du 9 août, Mianbi Intelligence de l'Université Tsinghua s'est associée à plusieurs instituts de recherche pour lancer le cadre d'apprentissage de l'outil ToolLLM et rejoindre le système d'outils à grand modèle OpenBMB. Le framework ToolLLM construit un ensemble de données de réglage fin d'instructions d'apprentissage d'outils de haute qualité ToolBench, forme un modèle ToolLLaMA avec des capacités d'utilisation d'outils et évalue automatiquement les performances d'apprentissage d'outils via Tool. L'introduction de ce cadre contribue à promouvoir une meilleure utilisation de divers outils pour les modèles de langage open source et à améliorer les capacités de raisonnement dans des scénarios complexes.

Google et Universal Music sont en pourparlers pour autoriser les artistes à utiliser des mélodies et des sons générés par l'IA

Selon Jiemian News citant le "Financial Times" britannique du 9 août, Google et Universal Music négocient pour autoriser les artistes à utiliser des mélodies et des sons de chansons générés par l'intelligence artificielle. Quatre personnes proches du dossier ont confirmé que les discussions entre les deux parties visent à forger des partenariats pour les industries aux prises avec l'impact des nouvelles technologies d'intelligence artificielle.

Lecture recommandée par le métaverse :

"Stability AI entre dans le domaine de la programmation et publie StableCode, un outil avec une fenêtre contextuelle pouvant contenir jusqu'à 16 000 tokens"

Stability AI est connu pour son modèle génératif texte-image Stable Diffusion, mais ce n'est pas tout ce que la startup d'IA générative souhaite développer. Stability AI entre dans le monde de la génération de code. Le 8 août, Stability AI a annoncé la première version publique de StableCode, son nouveau Large Language Model (LLM) ouvert conçu pour aider les utilisateurs à générer du code pour les langages de programmation. StableCode a trois niveaux différents : un modèle de base pour les cas d'utilisation généraux, un modèle d'instructions et un modèle de fenêtre contextuelle longue pouvant prendre en charge jusqu'à 16 000 jetons.

"Huang Renxun : "Nuclear Bomb Factory" est sur le point d'être mis en ligne, laissez tout le monde utiliser l'IA générative"

Le matin du 8 août, heure locale aux États-Unis, le fondateur et PDG de Nvidia, Huang Renxun, a passé en revue les moments forts de Nvidia dans le domaine de l'informatique graphique lors de la World Computer Graphics Conference SIGGRAPH2023, et a montré la dernière démo de poursuite de course 3D en résolution 4K en temps réel. Cependant, quelques minutes plus tard, le discours du "Leather Master" est complètement passé des graphismes 3D à l'IA. En tant que figure la plus importante de la vague de l'intelligence artificielle, Huang Renxun a fourni du matériel plus puissant et des applications et plates-formes plus intelligentes pour "l'IA générative populaire".

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)