AMD a lancé le centre de données tant attendu APU (processeur accéléré) Instinct MI300, qui est conçu pour aider les centres de données à traiter le trafic de données lié à l'intelligence artificielle et à défier le monopole de Nvidia sur ce marché en croissance rapide.
Cependant, après la fermeture du marché le 13 juin, heure locale, le cours de l'action AMD a chuté de 3,61 % (124,53 $ par action). Le même jour, le cours de l'action Nvidia a augmenté de 3,9 % et sa valeur marchande à la clôture a de nouveau dépassé 1 000 milliards de dollars.
Crédit image : Généré par les outils Unbounded AI
Lorsque Nvidia a goûté à la douceur de cette vague de boom de l'IA et que sa valeur marchande a dépassé le billion de dollars américains, son ancien rival AMD s'est également mobilisé pour répondre à la demande croissante en informatique IA. Pourtant, les investisseurs semblent tièdes quant à sa dernière annonce de produit.
Aux premières heures du 14 juin, heure de Pékin, AMD a apporté plus de détails et de mises à jour sur le très attendu APU (processeur accéléré) Instinct MI300, qui vise à aider les centres de données à gérer le trafic de données lié à l'intelligence artificielle, et ici Un défi au monopole de Nvidia sur un marché à croissance rapide a été révélé pour la première fois en juin dernier.
La PDG d'AMD, Lisa Su, a déclaré lors d'une présentation à San Francisco, aux États-Unis, que la série Instinct MI300 comprendra un GPU (unité de traitement graphique) MI300X, qui peut accélérer le traitement des technologies d'IA génératives utilisées par les chatbots tels que ChatGPT.
"Nous en sommes encore à un stade très précoce du cycle de vie de l'intelligence artificielle." Su Zifeng a déclaré que d'ici 2027, la valeur marchande potentielle totale des accélérateurs d'intelligence artificielle dans les centres de données sera quintuplée pour atteindre plus de 150 milliards de dollars américains.
Pourtant, la présentation n'a pas semblé éblouir les investisseurs. Ils ont déjà de grandes attentes quant à la croissance de l'intelligence artificielle, et le cours de l'action AMD a augmenté de 91,8 % cette année. Auparavant, à l'approche de la conférence de presse, des analystes d'institutions américaines ont exprimé leur optimisme sur AMD. Harsh Kumar (Harsh Kumar), analyste de la société de recherche Piper Sandler, a révisé l'objectif de cours des actions d'AMD de 110 $ à 150 $. Mais après la fermeture du marché le 13 juin, heure locale, le cours de l'action AMD a chuté de 3,61 % (124,53 $ par action). Le même jour, le cours de l'action Nvidia a augmenté de 3,9 % et sa valeur marchande à la clôture a de nouveau dépassé 1 000 milliards de dollars.
AI "super puce" et "version AMD" CUDA
Des dirigeants d'Amazon Web Services (AWS) et de Meta ont rejoint Su sur scène pour parler de l'utilisation des nouveaux processeurs AMD dans leurs centres de données. AMD a également annoncé la disponibilité générale de la dernière version de ses processeurs de serveur EPYC, une nouvelle variante appelée Bergamo.
Bergame sera le premier processeur (unité centrale de traitement) natif du cloud x86 de l'industrie, pouvant accueillir jusqu'à 128 cœurs Zen4c (l'architecture de puce Zen a été lancée pour la première fois par AMD en 2017 et prend en charge tous les processeurs AMD), et la capacité de cache L3 atteint 256 Mo ; En termes de technologie, la technologie 5 nm de TSMC est utilisée. Bergamo est optimisé pour les applications à forte intensité de calcul et convient aux nouveaux SoC de classe centre de données (système sur puce) basés sur l'architecture Arm tels qu'Ampere, Amazon, Google et Microsoft.
AMD affirme que sa nouvelle puce MI300X et son architecture CDNA sont conçues pour les grands modèles de langage et d'autres modèles d'IA de pointe. "J'aime cette puce." Su Zifeng a déclaré: "Le cœur est le GPU, et le GPU prend en charge l'IA générative."
"Les modèles deviennent de plus en plus gros, et vous avez en fait besoin de plusieurs GPU pour exécuter les derniers grands modèles de langage." Su Zifeng a souligné qu'avec l'augmentation de la mémoire des puces AMD, les développeurs n'ont pas besoin d'autant de GPU. Su Zifeng a démontré avec le modèle Hugging Face AI, un grand modèle de langage qui a écrit un poème sur San Francisco sur place. Un seul MI300X peut exécuter un modèle avec 80 milliards de paramètres, ce qui est la première fois qu'un modèle aussi grand peut être exécuté sur un seul GPU.
AMD a également annoncé qu'il proposerait l'architecture Infinity, combinant huit accélérateurs MI300X dans un seul système. Nvidia et Google ont développé des systèmes similaires qui combinent huit GPU ou plus pour les applications d'IA.
Un autre produit récemment annoncé est l'architecture "GPU+CPU" (APU) MI300A, et des échantillons sont maintenant disponibles. MI300X et Instinct Platform fourniront des échantillons au troisième trimestre de cette année et seront officiellement lancés au quatrième trimestre.
Les paramètres du processeur accéléré AMD Instinct MI300 ont en fait été exposés dès le début de 2023. MI300 est le premier produit intégré "CPU+GPU+mémoire" du marché, avec 146 milliards de transistors, plus que les 80 milliards de Nvidia H100, et c'est aussi la plus grosse puce actuellement produite par AMD.
Selon les calculs de Huatai Securities, les performances du MI300 sont proches de la puce Grace Hopper de Nvidia. Bien qu'AMD n'ait pas annoncé la comparaison de la puissance de calcul entre MI300 et Grace Hopper, par rapport à la génération précédente MI250X, la puissance de calcul (TFLOPS) du MI300 sur l'IA devrait être multipliée par 8, et les performances de consommation d'énergie (TFLOPS/watt ) sera optimisé. 5 fois. Si ce processeur est utilisé pour la formation de très grands modèles d'intelligence artificielle tels que ChatGPT et DALL-E, le temps de formation peut être raccourci des mois précédents à quelques semaines, économisant ainsi des millions de dollars en électricité.
Su a déclaré aux investisseurs lors d'un appel aux résultats le mois dernier que le MI300 commencerait à générer des ventes au quatrième trimestre.
En outre, AMD a déclaré lors de la conférence de presse qu'il dispose également de son propre logiciel de puce AI (similaire au CUDA de Nvidia), appelé ROCm. L'une des raisons pour lesquelles les développeurs d'intelligence artificielle ont toujours préféré les puces Nvidia est CUDA, qui réduit considérablement le seuil d'utilisation des GPU.A l'origine, un langage de programmation graphique OpenGL très professionnel était nécessaire.Avec CUDA, Java ou C++ couramment utilisés par les programmeurs peuvent appeler GPU. En conséquence, les GPU sont utilisés pour l'apprentissage en profondeur.
"AI God" Wu Enda a commenté qu'avant l'émergence de CUDA, il n'y avait peut-être pas plus de 100 personnes dans le monde qui pouvaient utiliser la programmation GPU. Après CUDA, l'utilisation du GPU est devenue une chose très facile.
"Bien que cela ait été un long voyage, nous avons fait de très bons progrès dans la construction d'une pile logicielle robuste qui fonctionne avec des modèles d'un écosystème ouvert de modèles, de bibliothèques, de cadres et d'outils." Le président d'AMD Victor Peng )express.
**Le "deuxième choix" pour bénéficier de la vague IA ? **
Nvidia domine le marché de l'informatique IA avec une part de marché de 80% à 95%, selon les analystes. Le mois dernier, Nvidia a publié un rapport financier extrêmement accrocheur, et sa valeur marchande a déjà atteint 1 000 milliards de dollars. La société avait précédemment déclaré qu'elle s'attendait à une forte augmentation de ses revenus après avoir sécurisé de nouveaux approvisionnements en puces pour répondre à la demande croissante.
D'autre part, dès l'annonce du rapport financier du premier trimestre de cette année, Su Zifeng a déclaré que l'IA avait été répertoriée comme la première priorité stratégique. Alors que les investisseurs parient qu'AMD sera le "deuxième choix" pour bénéficier de la vague d'IA, la valeur marchande d'AMD a atteint plus de 200 milliards de dollars cette année, bien plus que les 137,9 milliards de dollars d'Intel. Cependant, il y a encore un certain écart par rapport à la valeur marchande de Nvidia, le premier stock de puces, qui s'élève à 1 000 milliards de dollars.
À l'avenir, l'Instinct MI300 concurrencera de front les puces AI de la série Nvidia Hopper. Su Zifeng a dit un jour franchement qu'Instinct MI300 peut aider les entreprises à occuper le marché et qu'il répond à toutes les exigences des écosystèmes d'IA et de HPC/supercalcul.
L'analyste de Morgan Stanley, Joseph Moore (Joseph Moore), a un jour donné des conseils optimistes, affirmant qu'AMD avait enregistré des "commandes stables" de la part des clients, et que les revenus liés à l'IA de la société en 2024 devraient atteindre 400 millions de dollars, et le plus élevé pourrait même atteindre 400 dollars. 1,2 milliard de dollars, une prévision plus de 12 fois plus élevée que prévu.
Dans une récente interview avec des médias étrangers, Su Zifeng a également exprimé sans vergogne son ambition de contester le monopole de Nvidia.
L'idée concurrentielle d'AMD est de se concentrer sur l'APU (processeur accéléré) basé sur ses propres avantages CPU, et de former une concurrence différenciée avec le produit phare de Nvidia A100/H100. De plus, Su Lifeng combat également Nvidia par le biais d'acquisitions et d'autres moyens, comme l'acquisition pour 48,8 milliards de dollars de Xilinx (Xilinx) en 2022, qui fabrique des processeurs programmables qui aident à accélérer des tâches telles que la compression vidéo. Dans le cadre de l'accord, l'ancien PDG de Xilinx, Michael Bloomberg, est devenu président d'AMD et responsable de la stratégie d'IA.
La demande de puces pour l'intelligence artificielle a poussé les actions de Nvidia à des sommets proches de tous les temps, avec un ratio cours/bénéfice à terme d'environ 64 fois, soit près du double de celui d'AMD. "C'est pourquoi les investisseurs se tournent vers AMD. Parce qu'ils veulent un" remplacement de Nvidia "", a déclaré Stacy Rasgon, analyste chez Bernstein.
"Super Érudit" et "Problem Boy"
Fait intéressant, selon les médias chinois de Taiwan, Huang Renxun est un parent éloigné de Su Zifeng (le grand-père de Su Zifeng et la mère de Huang Renxun sont frères et sœurs). Tous deux sont nés dans la province chinoise de Taiwan. Su Zifeng est entrée aux États-Unis avec son père qui étudiait à l'Université de Columbia à l'âge de 3. Huang Renxun a quitté Taiwan pour vivre en Thaïlande à l'âge de 5 ans et est allé à la États-Unis à l'âge de 9 ans.
L'expérience de croissance de Su Zifeng semble être plus "maître étudiant".Après avoir été admise au Bronx Science High School à New York (qui a donné naissance à 6 lauréats du prix Nobel et 6 lauréats du prix Pulitzer), elle est entrée à la majeure en ingénierie du Massachusetts Institute of Technology. , à l'âge de 24 ans, il a obtenu un doctorat en EE (génie électrique, génie électrique), qui était connue comme la majeure la plus difficile du MIT à l'époque. Huang Renxun a connu une période d '«adolescents à problèmes», puis est entré à l'Oregon State University pour des études de premier cycle, étudiant le génie électrique, puis est entré à l'Université de Stanford pour obtenir une maîtrise en génie électrique.
Le premier emploi de Huang Renxun a été celui de concepteur de puces chez AMD, et il a fondé Nvidia à l'âge de 30 ans. Su Zifeng a fait l'expérience de "sociétés célèbres" telles que Texas Instruments, IBM et AMD jusqu'au bout, et est devenue la première femme PDG depuis la création d'AMD en 2014, alors qu'AMD faisait face à une énorme crise. Sous la direction de Su Zifeng, AMD a connu une énorme transformation du "retournement de poisson salé", d'un fabricant de semi-conducteurs au bord de la faillite à une multiplication par près de 30 du cours de l'action en moins de 10 ans. Et Huang Renxun a fait de Nvidia la première société de puces au monde à franchir la barre du billion de valeur marchande. Tous deux avaient un faible pour "enfreindre les règles" au cours de leur carrière. Les deux ont même remporté un prix nommé d'après Robert N. Noyce (le fondateur d'Intel) en un mois.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
"AI Crown Competition" chinoise : AMD lance la super puce MI300 pour défier Nvidia
Source: Le papier
Journaliste Shao Wen
AMD a lancé le centre de données tant attendu APU (processeur accéléré) Instinct MI300, qui est conçu pour aider les centres de données à traiter le trafic de données lié à l'intelligence artificielle et à défier le monopole de Nvidia sur ce marché en croissance rapide.
Cependant, après la fermeture du marché le 13 juin, heure locale, le cours de l'action AMD a chuté de 3,61 % (124,53 $ par action). Le même jour, le cours de l'action Nvidia a augmenté de 3,9 % et sa valeur marchande à la clôture a de nouveau dépassé 1 000 milliards de dollars.
Lorsque Nvidia a goûté à la douceur de cette vague de boom de l'IA et que sa valeur marchande a dépassé le billion de dollars américains, son ancien rival AMD s'est également mobilisé pour répondre à la demande croissante en informatique IA. Pourtant, les investisseurs semblent tièdes quant à sa dernière annonce de produit.
Aux premières heures du 14 juin, heure de Pékin, AMD a apporté plus de détails et de mises à jour sur le très attendu APU (processeur accéléré) Instinct MI300, qui vise à aider les centres de données à gérer le trafic de données lié à l'intelligence artificielle, et ici Un défi au monopole de Nvidia sur un marché à croissance rapide a été révélé pour la première fois en juin dernier.
La PDG d'AMD, Lisa Su, a déclaré lors d'une présentation à San Francisco, aux États-Unis, que la série Instinct MI300 comprendra un GPU (unité de traitement graphique) MI300X, qui peut accélérer le traitement des technologies d'IA génératives utilisées par les chatbots tels que ChatGPT.
"Nous en sommes encore à un stade très précoce du cycle de vie de l'intelligence artificielle." Su Zifeng a déclaré que d'ici 2027, la valeur marchande potentielle totale des accélérateurs d'intelligence artificielle dans les centres de données sera quintuplée pour atteindre plus de 150 milliards de dollars américains.
Pourtant, la présentation n'a pas semblé éblouir les investisseurs. Ils ont déjà de grandes attentes quant à la croissance de l'intelligence artificielle, et le cours de l'action AMD a augmenté de 91,8 % cette année. Auparavant, à l'approche de la conférence de presse, des analystes d'institutions américaines ont exprimé leur optimisme sur AMD. Harsh Kumar (Harsh Kumar), analyste de la société de recherche Piper Sandler, a révisé l'objectif de cours des actions d'AMD de 110 $ à 150 $. Mais après la fermeture du marché le 13 juin, heure locale, le cours de l'action AMD a chuté de 3,61 % (124,53 $ par action). Le même jour, le cours de l'action Nvidia a augmenté de 3,9 % et sa valeur marchande à la clôture a de nouveau dépassé 1 000 milliards de dollars.
AI "super puce" et "version AMD" CUDA
Des dirigeants d'Amazon Web Services (AWS) et de Meta ont rejoint Su sur scène pour parler de l'utilisation des nouveaux processeurs AMD dans leurs centres de données. AMD a également annoncé la disponibilité générale de la dernière version de ses processeurs de serveur EPYC, une nouvelle variante appelée Bergamo.
Bergame sera le premier processeur (unité centrale de traitement) natif du cloud x86 de l'industrie, pouvant accueillir jusqu'à 128 cœurs Zen4c (l'architecture de puce Zen a été lancée pour la première fois par AMD en 2017 et prend en charge tous les processeurs AMD), et la capacité de cache L3 atteint 256 Mo ; En termes de technologie, la technologie 5 nm de TSMC est utilisée. Bergamo est optimisé pour les applications à forte intensité de calcul et convient aux nouveaux SoC de classe centre de données (système sur puce) basés sur l'architecture Arm tels qu'Ampere, Amazon, Google et Microsoft.
AMD affirme que sa nouvelle puce MI300X et son architecture CDNA sont conçues pour les grands modèles de langage et d'autres modèles d'IA de pointe. "J'aime cette puce." Su Zifeng a déclaré: "Le cœur est le GPU, et le GPU prend en charge l'IA générative."
"Les modèles deviennent de plus en plus gros, et vous avez en fait besoin de plusieurs GPU pour exécuter les derniers grands modèles de langage." Su Zifeng a souligné qu'avec l'augmentation de la mémoire des puces AMD, les développeurs n'ont pas besoin d'autant de GPU. Su Zifeng a démontré avec le modèle Hugging Face AI, un grand modèle de langage qui a écrit un poème sur San Francisco sur place. Un seul MI300X peut exécuter un modèle avec 80 milliards de paramètres, ce qui est la première fois qu'un modèle aussi grand peut être exécuté sur un seul GPU.
AMD a également annoncé qu'il proposerait l'architecture Infinity, combinant huit accélérateurs MI300X dans un seul système. Nvidia et Google ont développé des systèmes similaires qui combinent huit GPU ou plus pour les applications d'IA.
Un autre produit récemment annoncé est l'architecture "GPU+CPU" (APU) MI300A, et des échantillons sont maintenant disponibles. MI300X et Instinct Platform fourniront des échantillons au troisième trimestre de cette année et seront officiellement lancés au quatrième trimestre.
Les paramètres du processeur accéléré AMD Instinct MI300 ont en fait été exposés dès le début de 2023. MI300 est le premier produit intégré "CPU+GPU+mémoire" du marché, avec 146 milliards de transistors, plus que les 80 milliards de Nvidia H100, et c'est aussi la plus grosse puce actuellement produite par AMD.
Selon les calculs de Huatai Securities, les performances du MI300 sont proches de la puce Grace Hopper de Nvidia. Bien qu'AMD n'ait pas annoncé la comparaison de la puissance de calcul entre MI300 et Grace Hopper, par rapport à la génération précédente MI250X, la puissance de calcul (TFLOPS) du MI300 sur l'IA devrait être multipliée par 8, et les performances de consommation d'énergie (TFLOPS/watt ) sera optimisé. 5 fois. Si ce processeur est utilisé pour la formation de très grands modèles d'intelligence artificielle tels que ChatGPT et DALL-E, le temps de formation peut être raccourci des mois précédents à quelques semaines, économisant ainsi des millions de dollars en électricité.
Su a déclaré aux investisseurs lors d'un appel aux résultats le mois dernier que le MI300 commencerait à générer des ventes au quatrième trimestre.
En outre, AMD a déclaré lors de la conférence de presse qu'il dispose également de son propre logiciel de puce AI (similaire au CUDA de Nvidia), appelé ROCm. L'une des raisons pour lesquelles les développeurs d'intelligence artificielle ont toujours préféré les puces Nvidia est CUDA, qui réduit considérablement le seuil d'utilisation des GPU.A l'origine, un langage de programmation graphique OpenGL très professionnel était nécessaire.Avec CUDA, Java ou C++ couramment utilisés par les programmeurs peuvent appeler GPU. En conséquence, les GPU sont utilisés pour l'apprentissage en profondeur.
"AI God" Wu Enda a commenté qu'avant l'émergence de CUDA, il n'y avait peut-être pas plus de 100 personnes dans le monde qui pouvaient utiliser la programmation GPU. Après CUDA, l'utilisation du GPU est devenue une chose très facile.
"Bien que cela ait été un long voyage, nous avons fait de très bons progrès dans la construction d'une pile logicielle robuste qui fonctionne avec des modèles d'un écosystème ouvert de modèles, de bibliothèques, de cadres et d'outils." Le président d'AMD Victor Peng )express.
**Le "deuxième choix" pour bénéficier de la vague IA ? **
Nvidia domine le marché de l'informatique IA avec une part de marché de 80% à 95%, selon les analystes. Le mois dernier, Nvidia a publié un rapport financier extrêmement accrocheur, et sa valeur marchande a déjà atteint 1 000 milliards de dollars. La société avait précédemment déclaré qu'elle s'attendait à une forte augmentation de ses revenus après avoir sécurisé de nouveaux approvisionnements en puces pour répondre à la demande croissante.
D'autre part, dès l'annonce du rapport financier du premier trimestre de cette année, Su Zifeng a déclaré que l'IA avait été répertoriée comme la première priorité stratégique. Alors que les investisseurs parient qu'AMD sera le "deuxième choix" pour bénéficier de la vague d'IA, la valeur marchande d'AMD a atteint plus de 200 milliards de dollars cette année, bien plus que les 137,9 milliards de dollars d'Intel. Cependant, il y a encore un certain écart par rapport à la valeur marchande de Nvidia, le premier stock de puces, qui s'élève à 1 000 milliards de dollars.
À l'avenir, l'Instinct MI300 concurrencera de front les puces AI de la série Nvidia Hopper. Su Zifeng a dit un jour franchement qu'Instinct MI300 peut aider les entreprises à occuper le marché et qu'il répond à toutes les exigences des écosystèmes d'IA et de HPC/supercalcul.
L'analyste de Morgan Stanley, Joseph Moore (Joseph Moore), a un jour donné des conseils optimistes, affirmant qu'AMD avait enregistré des "commandes stables" de la part des clients, et que les revenus liés à l'IA de la société en 2024 devraient atteindre 400 millions de dollars, et le plus élevé pourrait même atteindre 400 dollars. 1,2 milliard de dollars, une prévision plus de 12 fois plus élevée que prévu.
Dans une récente interview avec des médias étrangers, Su Zifeng a également exprimé sans vergogne son ambition de contester le monopole de Nvidia.
L'idée concurrentielle d'AMD est de se concentrer sur l'APU (processeur accéléré) basé sur ses propres avantages CPU, et de former une concurrence différenciée avec le produit phare de Nvidia A100/H100. De plus, Su Lifeng combat également Nvidia par le biais d'acquisitions et d'autres moyens, comme l'acquisition pour 48,8 milliards de dollars de Xilinx (Xilinx) en 2022, qui fabrique des processeurs programmables qui aident à accélérer des tâches telles que la compression vidéo. Dans le cadre de l'accord, l'ancien PDG de Xilinx, Michael Bloomberg, est devenu président d'AMD et responsable de la stratégie d'IA.
La demande de puces pour l'intelligence artificielle a poussé les actions de Nvidia à des sommets proches de tous les temps, avec un ratio cours/bénéfice à terme d'environ 64 fois, soit près du double de celui d'AMD. "C'est pourquoi les investisseurs se tournent vers AMD. Parce qu'ils veulent un" remplacement de Nvidia "", a déclaré Stacy Rasgon, analyste chez Bernstein.
"Super Érudit" et "Problem Boy"
Fait intéressant, selon les médias chinois de Taiwan, Huang Renxun est un parent éloigné de Su Zifeng (le grand-père de Su Zifeng et la mère de Huang Renxun sont frères et sœurs). Tous deux sont nés dans la province chinoise de Taiwan. Su Zifeng est entrée aux États-Unis avec son père qui étudiait à l'Université de Columbia à l'âge de 3. Huang Renxun a quitté Taiwan pour vivre en Thaïlande à l'âge de 5 ans et est allé à la États-Unis à l'âge de 9 ans.
L'expérience de croissance de Su Zifeng semble être plus "maître étudiant".Après avoir été admise au Bronx Science High School à New York (qui a donné naissance à 6 lauréats du prix Nobel et 6 lauréats du prix Pulitzer), elle est entrée à la majeure en ingénierie du Massachusetts Institute of Technology. , à l'âge de 24 ans, il a obtenu un doctorat en EE (génie électrique, génie électrique), qui était connue comme la majeure la plus difficile du MIT à l'époque. Huang Renxun a connu une période d '«adolescents à problèmes», puis est entré à l'Oregon State University pour des études de premier cycle, étudiant le génie électrique, puis est entré à l'Université de Stanford pour obtenir une maîtrise en génie électrique.
Le premier emploi de Huang Renxun a été celui de concepteur de puces chez AMD, et il a fondé Nvidia à l'âge de 30 ans. Su Zifeng a fait l'expérience de "sociétés célèbres" telles que Texas Instruments, IBM et AMD jusqu'au bout, et est devenue la première femme PDG depuis la création d'AMD en 2014, alors qu'AMD faisait face à une énorme crise. Sous la direction de Su Zifeng, AMD a connu une énorme transformation du "retournement de poisson salé", d'un fabricant de semi-conducteurs au bord de la faillite à une multiplication par près de 30 du cours de l'action en moins de 10 ans. Et Huang Renxun a fait de Nvidia la première société de puces au monde à franchir la barre du billion de valeur marchande. Tous deux avaient un faible pour "enfreindre les règles" au cours de leur carrière. Les deux ont même remporté un prix nommé d'après Robert N. Noyce (le fondateur d'Intel) en un mois.